数学B駅機械学習

アンドリュー・ウ機械学習:https://www.bilibili.com/video/av9912938/?p=43

 良い記事があります:https://blog.csdn.net/qq_39422642/article/details/78725278

https://blog.csdn.net/LeviAckerman/article/details/80353135

ビデオから:https://www.bilibili.com/video/av38272602/?p=10

SVMは、コアである:最大間隔

 

そして、様々な他の類似のSVMアルゴリズムは次のとおりです。決定境界を分けています。

それは異なっている:国境画定決定の異なる方法。

 

 

コアアイデア2:

Yを導入し、前の2つの表現は、一つに合わせました。また、これは小さなトリックです

サポートベクター満足式(式2)。

 

 

 

 

 

この式は非常に重要です!

 

 ラグランジュ乗数は、から何かを学ぶ必要があります

私たちは、なぜ特定のxを気にしませんが、約2ポイントが乗数xは。これは実際にはカーネルです。

決定は、式に代入して

これは、テストデータセットです。

 

 ポイントと内積、完成した製品の需要により2点セット2をテストしてから、> 0の場合、および+を加重和を求める道端。これは、SVMの最も単純な形式です。

 

場合ではない0、X 1は、道路の側のポイントではありません。唯一の夜12時00まで、それは道路ポイントの側です。

 

 

探してあまりにもハードカーネルを。

しかし、あなたは見つけることができます。

2点が定数倍されるため、kは線形関数です。

上記多項式カーネル、ガウス以下(RBF)核

 

モデリングするとき、我々は変換はい非線形必要がなく、カーネルが何であるか、どのような機能を知っておく必要があります。

 

我々は上記の式を入れて、以下の式に変換されます。

 

今、残りの質問:どのように取得します

では、B、Wがあるでしょう。

 

题外话:SVM的所有优化都是凸优化。深度学习的时候,达到局部最优就可以了。不一定非要全局最优。

 

 

SMO如何做的?

每次固定2个变量,求极值,依次迭代。

おすすめ

転載: www.cnblogs.com/JasonPeng1/p/12110139.html