アンドリュー・ウは、スタンフォード大学の「機械学習」のビデオでノートによると、輪郭だけのリストを取得するために、「統計的学習法」知識李ハングを通じて詳細には触れません。
1つの異常検出
確率分布関数を形成するために、データをモデル化\を(P(X)\)空; \(P(X_ {試験} )\) の値を
たとえば、
- 不正検出:ユーザーが異常な行動を識別することができます
- 業界
- コンピュータの監視データセンター
1.1ガウス/通常\(〜N(\ミューX \、\シグマ^ 2))
\(\ MU \) :平均値、ベル曲線の制御中心位置
\(\シグマ^ 2 \) :分散、ベル曲線の制御幅
\(P(X、それ\ \シグマ^ 2)= \ FRAC {1}は{\ SQRT {2 \ PI}} EXP( - \ FRAC {(X-MU \)^ 2} {2 \シグマ^ 2 })\)
パラメータ推定
\(\ MU = \ FRAC {1} {M} \ sum_ {i = 1} ^ MX ^ {(I)} \)
\(\シグマ^ 2 = \ FRAC {1} {M} \ sum_ {i = 1} ^ M(X ^ {(I)} - MU \)^ 2 \)
密度推定
\(P(X)= P(X_1; \ mu_1、\ sigma_1 ^ 2)P(X_2; \ mu_2、\ sigma_2 ^ 2)P(X_3; \ mu_3、\ sigma_3 ^ 2)\ cdotsのP(x_nに関する; \ mu_n、\ sigma_n ^ 2)= \ prod_ {J = 1} ^ NP(X - jが; \ mu_j、\ sigma_j ^ 2)\)
1.2異常検出アルゴリズム
- 選択機能<セクション1.4 >
- パラメータ推定\(\ mu_j、\ sigma_j ^ 2 \) または\(\ MU、\シグマ\) <参照1.5を >
- 密度推定のための新しいサンプルを考えると、比の場合には\(\エプシロン\)は、小さな異常です
開発と評価
トレーニングセット:60%いいえ異常サンプル、機能の推定平均と分散とビルド\(P(X)\)機能を
クロスバリデーションセット:20%試料なし異常異常+ 50%のサンプル、クロスバリデーションセット選択使用して(\ \ \イプシロン)に記載の\(F_1の\)値を選択します
テストセット:異常なサンプルの異常なし20%+ 50%サンプル
メトリック:
- TP、FN、FP、TN
- 正解率/リコール
- \(F_1-スコア\)
教師付き学習対1.3異常検出
異常検出 | 教師付き学習 |
---|---|
ポジ型の非常に少量(異常データ\(1 Y = \) )、ネガ型の大量(\(Y = 0 \) ) | クラスへの正と負のクラスの数が多い一方で |
例外の多くの異なる種類。アルゴリズムを訓練するために前方クラスデータの非常に少ない量によると、非常に困難です。 | 学習アルゴリズムのための十分な十分な正のクラスのインスタンスがあります。 |
異常は非常に異なる未来出会いの例外をマスターしていることがあります。 | 将来のフォワードクラスのインスタンスは、トレーニングセットと非常によく似て発生する可能性があります |
1.4機能を選択します
前記非ガウス分布:ガウス分布パターンに近い特性を変更するための対数関数により、平方根法
正常と異常のサンプルは次のように:問題を特定し、新しい機能を作成します
以上の1.5元ガウス分布
しないで\(P(X_I)\)モデリング、代わりにワンタイムの\(P(X)\)パラメータ、モデリング\(\ MU \)がある\(N- \)次元ベクトル、\(\ Sigma社\)\(N×N \)共分散行列
\(P(X、それ\ \シグマ^ 2)= \ FRAC {1} {(2 \ PI)^ {\ FRAC {n}は{2} | \シグマ| ^ {\ FRAC {1} {2 }}} EXP( - \ FRAC {(X-MU \)^ T \シグマ^ { - 1}(X-MU)} \ {2})\)
パラメータ推定
\(\ MU = \ FRAC {1} {M} \ sum_ {i = 1} ^ MX ^ {(I)} \)
\(\シグマ= \ FRAC {1} {M} \ sum_ {i = 1} ^ N(X ^ {(I)} - ミュー\)(X ^ {(I)} - MU \)^ T \)
これは、多変量ガウス分布、すなわち、特別なケースであり、ガウス分布、前に見出すことができる\(\シグマ\)行列の非対角要素は零
利点:自動的に元のモデル→機能との間の関係をキャプチャするには、手動で新しい機能を作成する必要があります
短所:高価な計算; \(M> N - \) 、そうでない場合は不可逆共分散行列(\ GE 10N \(M \) )