この記事では、主に PCA の数学的導出について説明します。PCA の数学的導出は、線形代数の知識で行うことができます。
deeplearningbook.org の書籍 2.12 を参照してください。例: 主成分分析
第 16 章 Li Hang の統計的学習法の主成分分析を参照してください。
この記事の内容は次のとおりです。
目次
最初に、使用される 2 つの線形代数の知識ポイントについて話しましょう。
使用した知識ポイント
1. 行列の対角要素の合計 (トレース演算子)
Tr として示される行列の対角要素 (トレース演算子) の合計は、次のように定義されます。
次のプロパティがあります。
1 行列のトレースは、その転置のトレースに等しい
2 循環交換
2. 行列のフロベニウス ノルム:
次のプロパティがあります。
さて、2つの小さな知識ポイントを終えたら、PCAを開始します〜
PCA の数学的導出
空間に m 個の点があり 、各点は n 次元のベクトルです。 これらのポイントを保存するには、メモリ空間の単位を使用する必要があります. スペースが限られている場合は、元の情報と同じ情報を保存するために使用するスペースを減らして、情報の削減をできるだけ小さくすることができます. 1 つの方法は次元削減です. 各点 について , 対応する点 を見つけます . このようにして, 元のデータの格納スペースを減らすことができます. 数式で表現 する と , です.を見て、任意の点の元のベクトルと次元削減後のベクトルを表現するために と を後で使用します 。関数はエンコード関数 (エンコード関数) であり、 関数はデコード関数 (デコード関数) です。
PCA は、このような次元削減方法を提供します。
公式導出開始~
PCA の導出は、復号化関数から始まります. 復号化関数をできるだけ単純にするために、行列乗算の方法は、その中で. 制限がないと最適な値を計算するのが難しいので、 何らかの制限を加えることで、期待する効果が得られるかどうかを確認します。実際、 各列は直交であり、各列は単位ベクトルであると仮定できます.この制限 を作成した後、最適なものを計算するのははるかに簡単になり、これを得ることができます.
1. 目的関数:
その中で、、私たちの目標は、最適な を見つけることであるとします 。
2. 関数 を表すために使用します。つまり、次を表すために使用します 。
上記の最初のステップの式は、最適値を解くための式です。最良のものを求めているので、式には既知 と未知しか存在できませんが 、式には未知の関数があるので 、その関数、つまり既存の和を表現する 必要があります。
どのように表現しますか?目標は変わっていません。ステップ 1 の式を各サンプルに分解できます。次に、それぞれの最適なものを見つけ、 最適なものを解決する過程で、合計がわかっていると考えます。解くための最適な式は次のとおりです。
行列形式に変換できます。
次に展開します。
と は等しいので 、どちらも実数であり、次のように簡略化できます。
1 つの項目を省略すると(最適化とは関係がないため)、次のようになります。
に置き換えられ ます :
単位行列による行列の乗算は変わらないため、次のようになります。
行列計算演算を使用して を 微分し、導関数を 0 に設定すると、次のようになります。
最適なものを見つけて 、その式を目的関数に代入します。
3. ステップ 1 の目的関数に戻る
ノルムをノルムの 2 乗に変換し、 このときベクトルになると 仮定し て書き留める と、
(ここで最初に証明した状況、導出はこれに似ています)
これは実数な ので 、ベクトルの左 にシフトできます。
これは実数である ため、その転置はそれ自体です。
キャンセルできます 。 前に説明したフロベニウス ノルムを使用しましょ う。
制限を無視して、前に説明した最初の知識ポイントを使用して、前の式を行列形式に単純化しましょう。
次に、行列の乗算を展開します。
前に述べたこと ( take as 、as ) を使用して、以下を取得します。
同様に、今回は を利用可能として扱います。
別の制約 があることを忘れないでください。これは次のように代入できます。
前述のように 、 (take as , as ) は以下を取得できます。
これは実数なので 、前のものを削除できます。
の対象となる
これまでのところ、私たちが望む形に単純化されています.これは実対称行列であるため、 最大の固有値に対応する固有ベクトルを 最大化 できます.具体的な証明はここには書きませんが、インターネットで検索できます〜
私たちが証明するの は、 、 、簡単に推測できる特殊なケースです。
、 、 の対象
の最大固有値を 最大化する 固有ベクトル は です。
最大値 に達することを基準として、最適なものは に直交する単位ベクトル であり、 最大値に達するものは2 番目に大きい固有値の固有ベクトル です。
その時は2 の時と同じでした。
PCA 分散化
数学的証明のプロセスでは、必要な最初の 大きな固有値 に対応する固有ベクトルのみが必要です。しかし、考慮しなければならない問題があります。それは、各次元データの次元の大きな違いです。データ内の特定の特徴 (行列の列) の値が特に大きい場合、誤差計算全体で大きな割合を占め、新しい次元空間に射影されたベクトルは最大値に近づこうとします。比較的小さな値を持つ機能を無視する一方で、PCA の前に各機能の重要性がわからないため、大量の欠落情報が発生する可能性があります。したがって、分散化が必要です。
分散化後、マトリックスの各列のデータをこの列の平均値から差し引く必要があることを意味します。
分散化後の行列を とすると、PCA は 前の 大きな固有値に対応する固有ベクトルです。
実際、 これはの共分散行列 です。
特異値分解による計算方法
従来の主成分分析は、データの共分散行列の固有値分解によって実行されます。一般的に使用される方法は、データ行列の特異値分解です。
データの共分散行列の固有値分解によって主成分を見つけることについてはあまり説明しませんが、特異値分解の方法によって主成分を見つけることについて話しましょう。特異値分解は、Singular Value Decomposition (SVD) (Singular Value Decomposition)を参照できます。
実数行列 の場合 、そのランクが であると仮定する と 、行列は 切り捨てられた特異値分解であることがわかります 。
新しい マトリックス を定義する
(は分散化後のマトリックス)
それで
の共分散行列である こと がわかります 。
主成分分析は、共分散行列の固有値。
切り捨てられた特異値分解が であると仮定すると 、 の列ベクトルは の 最初の k 主成分です。したがって、得られた主成分は、得られた特異値分解によって実現できる。
結論は
PCA は次元削減手法です。共分散行列 の 最初の 大きな固有値に対応する固有ベクトルを取得し、これらの固有ベクトルを各列としてまとめて復号化行列を取得します 。エンコーディング マトリックスは.
実装方法は、元のデータ行列の共分散行列の固有分解を計算することができ、また、分散された元のデータ行列の特異値分解を計算することもできます。
はぁ~やっと終わった~