9 SVM -SVM
それは凸最適化であるため、ニューラルネットワークと比較すると、ローカルの最適な問題に陥る心配はありません。
9.1サポートベクターマシンは、機能を想定します
\ [H _ {\シータ} (X)= \左\ {\開始{アレイ} {LL} {1}と{\テキスト{X \ GEQ 0} \\ {0} \シータ^ {T}であれば、 }&{\テキスト{他}
右\} \端{アレイ} \タグ{9.1} \] パラメータを取得するために、上記の式を最小にする(\シータ\)\次の仮説は、SVMの関数として、置換されているとした後、
9.2サポートベクターマシン決定境界
- Cが非常に大きい場合には、SVMは、全てのサンプル点の分類を修正しようと、SVMの決定境界は、重要な変更は、特別なポイントのために起こるだろう。SVMは、最大距離のサンプルによって分離されます
- 決定境界パラメータベクトル\(\シータ\)垂直
- \(\ theta_0 \)はほぼ同じ効果が、最適化の目的関数、すなわちパラメータベクトルまたは決定境界の原点であり、0に等しくありません
- SVMは、実際の最大長さの原点からのパラメータのベクトルに、サンプルベクトルに投影するパラメータを変更、すなわち\(P ^ {(I) }。|| \シータ|| \) の\(P ^ {(I )} \)最大ながら、所望の\(|| \ ||シータ\)最低。達成することができる(\ \テキスト{分} \ FRAC {1} {2} \ sum_ {J = 1} ^ {N} \シータ^ 2_j \)
- 従ってSVM分類器も大きい間隔としても知られています
9.3カーネル
この問題を解決することができる非線形SVM法
9.3.1ガウスカーネル - 1つの類似方程式
\(F \)試料と標識算出ガウシアンカーネルに応じて得られる特性変数Xです。
\(f\in[0,1]\)当训练好参数\(\theta\)后,根据一个样本x到不同标记的距离大小不同,特征变量不同,即赋予参数不同权重,最后计算出\(\theta^Tf\),判断y=0或y=1,从而得到非线性边界
9.3.2 选取标记l的方法
将所有训练样本均作为标记点
9.3.3 线性核函数
即没有核参数的函数
9.3.4 多项式核函数
效果较差,针对非线性问题
9.4 支持向量机参数与偏差方差关系
9.4.1 C的选择
C(\(=\frac{1}{\lambda}\))大:即\(\lambda\)小,\(\theta\)大,意味着低偏差,高方差,倾向于过拟合
C(\(=\frac{1}{\lambda}\))小:即\(\lambda\)大,\(\theta\)小,意味着高偏差,低方差,倾向于欠拟合
9.4.2 \(\sigma^2\)的选择
\(\sigma^2\)大,特征量\(f\)随着x变化缓慢,即x变化很多,\(\theta^Tf\)变化很小,边界变化慢偏差较大
\(\シグマ^ 2 \)が小さい場合、特徴量\(F \) xの劇的な変化を有する、すなわちXほとんど変化、\(シータ\の\ ^ TF)はるかに大きな変化、境界の分散の急激な変化
9.5を使用するには、SVMステップ
選択したパラメータC
どこサンプルに基づいて適切なカーネル関数を選択します
選択されたカーネル関数の調製、特性変数を生成するために、すべての入力サンプル
サンプルケースに基づいてズームサンプル割合
特徴の数N(10000)>データに合うようにより複雑な非線形関数であるため、ロジスティック回帰または線形カーネルを使用して、サンプル数m(10〜1000)は、できない場合
サンプルM(10から50000まで)場合、適度な特徴の数N(1-1000)の<数、ガウシアンカーネルを用いて、
特徴の数N(1-1000)<サンプルの数をm(50000+)が大きい場合は、ガウスカーネルでSVMは、より特性変数、ロジスティック回帰および線形カーネルを作成し、手動で、非常にゆっくりと実行されます