6、次元削減

特徴選択が完了すると、ダイレクトモデルを訓練することができますが、原因の特徴行列であることができる長い計算能力につながる、大きすぎると、このように行列の特徴的な寸法を削減、時間の問題を訓練も不可欠です。L1ペナルティ以外の一般的な次元削減に基づくモデル・アイテム、主成分分析(PCA)および線形判別分析(LDA)、線形判別分析、分類モデル自体上述に加えに加えました。PCAとLDAは多くの類似点を持っている、その本質は、あなたが低次元サンプル空間にマップする元のサンプルですが、PCAとLDAマッピングターゲットは同じではありません:PCAは、マップが最大の発散を持った後、サンプルをできるようにすることです; LDAは、マッピングが最高の分類性能を持っていた後、サンプルを作ることである一方でだから、PCAは、教師なし次元圧縮方式であり、LDAの次元削減方法は、監督の一種です。

 

おすすめ

転載: www.cnblogs.com/pacino12134/p/11369036.html