機械学習|スタンフォードのアンドリュー・ウ仕上げのコースノート(b)のロジスティック回帰

このシリーズは、スタンフォード大学のアンドリュー・ウで次のディレクトリを注意することは、CS229仕上げ機械学習コースの注意事項:

  (A)線形回帰

  (B)ロジスティック回帰

  (C)ニューラルネットワーク

  (IV)の分析と最適化アルゴリズム

  (E)サポートベクターマシン

  (六)K-手段

  (VII)の機能低下

  (VIII)の異常検出

  (1×)推薦システム

  (J)大規模な機械学習

章ロジスティック回帰

そうロジスティック回帰0/1分類の導入を完了するために、0/1分類が困難で処理するために線形回帰を使用し、また、論理ワードを表す(1)及び(0)。

、シグモイド関数予測

ロジスティック回帰では、予測関数は、次のように定義されます。
 
G(z)はロジック機能も知られ、シグモイド関数と呼ばれ
                    

第二に、決定境界

決定境界は、プロパティの関数Hθ(X)よりもむしろ、トレーニングセットのプロパティを予測します。これは、彼らがクラス間の境界を「描く」だけHθ(x)を作ることができるためであるが、唯一のトレーニングセットを訓練し、パラメータを調整します。
  • リニア決定境界
              
  • 非線形決定境界
                  

第二に、予測コスト関数

分類タスクのために、私たちは繰り返し繰り返し、より正確な予測を行うことが決定境界を回し、つまり、パラメータθを調整するものです。あなたが最小のコスト関数を見つけたとき、あなたが最も正確な予測を行うことができ、θ値の予測精度を評価するために使用され、我々はコスト関数J(θ)を持っていると仮定します。
典型的には、低コスト関数が最小値、容易にその最小値、より容易に最も正確な予測を含みます。 - >グローバル最小値と極小値
                             
ロジスティック回帰コスト関数は次のように定義されています。
           

第三に、コスト関数を最小化します

SGDとは、2つの方法BGDを使用しています
     
      

第四に、正則

フィッティングは、問題を解決しました。
1)特徴の数を減らします
2)滑らかな曲線
弱の高次係数(弱め蛇行曲線)、(不利)ペナルティパラメータθと呼びます。 - 定期的な
 
•線形回帰正則:
   
パラメータλである場合には、主に二つのことを実行します。
  - データへの良好なフィット感を確保するために、
  - 保证 θ 足够小,避免过拟合问题。(λ 越大,要使 J(θ) 变小,惩罚力度就要变大,这样 θ 会被惩罚得越惨(越小),即要避免过拟合,我们显然应当增大 λ 的值。)
· 逻辑回归中的正则化

五、多分类问题

通常采用 One-vs-All,亦称 One-vs-the Rest 方法来实现多分类,其将多分类问题转化为了多次二分类问题。
假定完成 K 个分类,One-vs-All 的执行过程如下:
  - 轮流选中某一类型 i ,将其视为正样本,即 “1” 分类,剩下样本都看做是负样本,即 “0” 分类。
  - 训练逻辑回归模型得到参数 θ(1),θ(2),...,θ(K) ,即总共获得了 K−1 个决策边界。
                   
给定输入 x,为确定其分类,需要分别计算 h(k)θ(x),k=1,...,K ,h(k)θ(x) 越趋近于1,x 越接近是第k类:
                             
 
 

おすすめ

転載: www.cnblogs.com/geo-will/p/10306691.html