スイカブックノート - SVM -1

ωSVMプロフィール

  SVM(サポートベクターマシン、SVM)は、データがその決定境界学習サンプルを解決するための最大のマージンがある分類線形一般のバイナリ分類(一般化線形分類器)であり、教師付き学習(教師付き学習)の方法により、クラスで超平面(最大マージン超平面)(Baiduの百科事典)

間隔の設定およびサポートベクトル

  分類学習の基本的な考え方であるので、{、...、(XM、YM)(X1、Y1)、(X2、Y2)}異なるカテゴリの別々のサンプルにトレーニングセットD超平面に分割試料空間に見出されます。(下図のように)私たちの目的は、最高の分割面を見つけることですので、超平面の数に分割されます。

 図1 2つのトレーニングサンプルを分離する超平面を分割した複数の存在

 

図から分かるように超平面赤を分割する最良の「寛容」のサンプル超平面局在外乱の分割ので、最良であるべきです。ための制限のため、またはトレーニングセットの雑音指数の、トレーニングセット外のサンプルが近い平面が現れるの分割、及び最小の赤色超平面影響、上ミスの多くを作る2つのクラスを分離境界にしてもよいです、彼は分裂生成された超平面分類結果が最強の一般化の中で最も「堅牢」であると述べました。

ロバストネス(堅牢):強力かつ堅牢な意味、異常なデータを分類するために訓練されたモデルを指し、この場合には、まだ良い結果を取得することができます

汎化:新しいモデルを学習する能力がサンプルにも適用することが一般化として知られている、サンプルのトレーニングセットに表示されませんでした

 

サンプル空間において、分割超平面は、以下の線形方程式によって記述することができる。 ωTx+ B = 0

ここで、ω=(ω-1、ωは2 .... #D位法線ベクトルのため、超平面の方向を決定するステップと、b項目変位を、オメガ] [原点と超平面、従ってベクターを分割する超平面の間の距離を決定し、変位方法Bであることができます定めます

例えば、3次元平面で、平面方程式のように表すことができる:Axは+によって+のCz + D = 0このように平面の法線ベクトルは(A、B、C)であり、面間隔の起源は次のようにD、平面からの距離に点が導出されます。マップ

 

 

 

このように、超平面(ω、B)からのサンプル空間内の任意の点です。

 

 

仮定する超平面トレーニングサンプルを正しく分類することができる、すなわち(XI、YI)∈Dのため= + +1李場合、 ωTx+ B> 0YI = -1、ωTx+ B <なら 0。

同時に、なぜなら超平面のスケーリングのため、常に次式を得ます:

サポート・ベクター:以下に示すように、平等は式上記正確にポイントを保持しているような部分では、これらの点は、サポートベクトルと呼ばれています。

 

 

 

 

 

間隔: 2の異種サポートベクトル和と超平面までの距離をγ間隔と呼ばれています。

                                                          

 

 サポートベクトル分類は「最大間隔」分割超平面、すなわち検索で発見される制約ωγとBような最大間隔は、次の式を得ることができます。

インターバル・ω関連および式のみから見て、だけでなく、制約のωbの値に影響を与えます。

 

上記式は、基本的なサポートベクターマシンである次式のように書き換えることができます。

 

                          

 

 

 

 デュアル問題

 

 

 

 

 

 

 

 

                                                                                                       

 

 

 

 

おすすめ

転載: www.cnblogs.com/lovejjy/p/11812141.html