【サポートベクターマシン】SVM線形分離型サポートベクター機械学習アルゴリズム - ハードマージン最大化サポートベクターマシンと具体例の詳細説明

サポート ベクター マシン (SVM) は 2 クラスの分類モデルです。その基本モデルは、特徴空間上で最大のマージンを持って定義された線形分類器です。線形分離可能なサポート ベクター マシン、線形サポート ベクター マシン、および非線形サポート ベクター マシンが含まれます。

トレーニング データが線形分離可能な場合、ハード マージンの最大化を通じて線形分類器が学習されます。これは、ハード マージン サポート ベクター マシンとも呼ばれる、線形分離可能なサポート ベクター マシンです。

線形分離可能なサポートベクター機械学習アルゴリズム

入力: 線形分離可能なトレーニング データセット$T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\}$、ここで$x_i\in$${\cal X}={\mathbf{R}}^{n}\:,\quad{\gamma_{i}}\in{\cal Y}=\{-1,+1\}\:, \quad i=1,2,\cdots,N\:;$

出力: 超平面を分離する最大マージンと分類決定関数

1) 制約付き最適化問題の構築と解決

$\begin{array}{ll}{\min_{w,b}}&{\frac{1}{2}\Parallel w\Parallel^{2}}\\{\mathrm{st}}&{y_ {i}(w{\bullet}x_{i}+b)-1\geqslant0,\quad i=1,2,\cdots,N}\\\end{array}.$

最適解を得る$w^{*},b^{*}$

制約を使用してベクトル ノルムを最小化する

2) 最適解を置き換える、

分離超平面を取得します。

$w^{*}\cdot x+b^{*}=0$

分類判定機能:

$f(x)=\mathrm{sign}(w^{*}\cdot x+b^{*})$

トレーニング データ セット: 正の例の点$x_{1}=(3,3)^{\mathrm{T}},\quad x_{2}=(4,3)^{\mathrm{T}}$、負の例の点$x_{3}=(1,1)^{\mathrm{T}}$、最大分離超平面の検索、分類決定関数およびサポート ベクトル

ほどく:

1) 制約付き最適化問題の構築と解決

$\begin{aligned} &\operatorname*{min}_{w,b} \frac{1}{2}({w_{1}}^{2}+{w_{2}}^{2}) \\\\&\mathbf{st} \\ &\mathbf{} 3w_{1}+3w_{2}+b\geqslant1 \\ &4w_{1}+3w_{2}+b\geqslant1 \\ &-w_ {1}-w_{2}-b\geqslant1 \end{aligned}$

最適解を得る$w_{1}=w_{2}=\frac{1}{2},\quad b=-2$

最適化問題を解くには変数の数を減らす必要があります

2) 最適解を置き換える、

分離超平面を取得します。

$\frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2=0$

分類判定機能:

$f(x)=\mathrm{sign}(\frac{1}{2}x^{(1)}+\frac{1}{2}x^{(2)}-2)$

サポートベクター: x_{1}=(3,3)^{\mathrm{T}}$x_{3}=(1,1)^{\mathrm{T}}$

サポートベクターは制約条件の等号が成立する点、つまり満たされるy_{i}(w{\bullet}x_{i}+b)-1= 0点です。

おすすめ

転載: blog.csdn.net/weixin_73404807/article/details/135221399