アンドリュー・ウ機械学習:https://www.bilibili.com/video/av9912938/?p=43
良い記事があります:https://blog.csdn.net/qq_39422642/article/details/78725278
https://blog.csdn.net/LeviAckerman/article/details/80353135
ビデオから:https://www.bilibili.com/video/av38272602/?p=10
SVMは、コアである:最大間隔
そして、様々な他の類似のSVMアルゴリズムは次のとおりです。決定境界を分けています。
それは異なっている:国境画定決定の異なる方法。
コアアイデア2:
Yを導入し、前の2つの表現は、一つに合わせました。また、これは小さなトリックです
サポートベクター満足式(式2)。
この式は非常に重要です!。
ラグランジュ乗数は、から何かを学ぶ必要があります
私たちは、なぜ特定のxを気にしませんが、約2ポイントが乗数xは。これは実際にはカーネルです。
決定は、式に代入して
これは、テストデータセットです。
ポイントと内積、完成した製品の需要により2点セット2をテストしてから、> 0の場合、および+を加重和を求める道端。これは、SVMの最も単純な形式です。
場合ではない0、X 1は、道路の側のポイントではありません。唯一の夜12時00まで、それは道路ポイントの側です。
探してあまりにもハードカーネルを。
しかし、あなたは見つけることができます。
2点が定数倍されるため、kは線形関数です。
上記多項式カーネル、ガウス以下(RBF)核
モデリングするとき、我々は変換はい非線形必要がなく、カーネルが何であるか、どのような機能を知っておく必要があります。
我々は上記の式を入れて、以下の式に変換されます。
今、残りの質問:どのように取得します
では、B、Wがあるでしょう。
题外话:SVM的所有优化都是凸优化。深度学习的时候,达到局部最优就可以了。不一定非要全局最优。
SMO如何做的?
每次固定2个变量,求极值,依次迭代。