章古典アルゴリズム
EDITORIAL 0
この章では、SVM、ロジスティック回帰と決定木3個の古典的なアルゴリズムを紹介します。これらの3つのアルゴリズム李ハング、「統計的学習方法は、」3つの章から出た説明に焦点を当てています。このセクションの質問は、書籍の根拠を問うことにより、弱すぎる自分自身を発見、適切な根拠を持っている必要がありますが、ほとんどは学ぶために人の能力の基礎を学ぶことができます。(トミーは、知識の簡単な基礎、より困難なより抽象的な知識ベース、賛成の手を意味するものではありません、何かを言われたときに覚えている!)「百台の顔機械学習」はかつて、非常に良い本である時間を考えると、十分ではありませんし、私の知識カバーのマクロ視点から様々なニーズ、一時的に迅速な最初のパス、。
1つのサポートベクターマシンSVM
SVMの導入については、多くのオンラインブログを説明するために行ったがあります。ここで強くお勧めしますhttps://cuijiahua.com/blog/2017/11/ml_8_svm_1.htmlブログ、それが十分でなかった場合は、7月に組み合わせることができる非常に素晴らしいhttps://blog.csdn.net/v_JULY_v/article/details / 7624837 および統計的学習方法の李ハング。これらの個人は絶対に十分な。自宅に近い、ここでは、このセクションで問題提起されています
Q1:超平面SVM分類に突起を作るために、それぞれ、線形点の2種類に分けることができる空間では、これらの点を平面上に投影されているが、依然として超線形分離それは?
A1:すべての最初は、超平面で点の2種類を分離することができる、線形分離が何であるかを明確にします。任意の2点の線形分離可能なため、それらは超平面SVM上にある投影された直線不可分に(図3.9及び図P52 3.10)。KKT条件を証明するためにそれを使用する必要性について、数学的知識のも、シリーズをラグランジュ。これらの知識は、SVMの導出に使用され、ここでは省略されています。
Q2:SVMの訓練誤差がゼロになるように、パラメータのセットがある場合は?
A2は:ガウシアンカーネル(使用してトレーニングセットが同じ位置2点の存在しない場合、)SVMの訓練を、パラメータのセットがあるとパラメータSVM訓練誤差がゼロになるように。
Q3:SVM分類器の訓練誤差はゼロが存在しなければならないのですか?
A3:が存在する必要があります。P56を参照してください。
Q4:スラック変数SVMの訓練誤差の追加を行うことができますゼロですか?
A4:必ずしもありません訓練誤差がゼロのモデルになってしまいます。あなたはスラック変数を追加線形SVMモデルを訓練するためにSMOアルゴリズムを使用する場合は、私たちの最適化の目標は変わっていない、と訓練誤差を最小限にもはやです。2に含まれている最適化されたSVMモデルの目的関数と変数のたるみを考えてみましょうと。我々パラメータ場合は小さな値を選択する際に、後者は割合の大きな正則化項の最適化を占有します。したがって、訓練誤差が、ポイントのパラメータを持つ小さい優れた結果であろう。ときに時間が0に設定され、だけでなく、0を摂取した場合、最適化の目標を達成することができます。(P57)