機械学習モデル|ロジスティック回帰アルゴリズム

 

ロジスティック回帰

  線形回帰の問題は - どのように腫瘍の悪性かどうかを判断するには?

         

 

 

 

     十分なロバスト線形回帰、ノイズがあれば、すぐに、「降伏」

   

 

ロジスティック回帰 - 分類

     

 

 

 

平滑化ステップ関数0-1との間のシグモイド関数(圧縮関数) - ステップが不十分非線形関数の問題を解決します

   線形関数を整流のReduは、より良いステップ

       

 

 

         

我々アウト線形回帰適合が完了圧縮決定境界と0.5の確率を作るために、圧縮関数値を圧縮するために、サンプルは、2つのカテゴリ、すなわち、正および負のサンプルに分割することができます。

          

 

 

     

 

 

 

EZは、値z G(z)の記号は、最後の0.5または0.5未満大きいかを判断する(複数のニューラルネットワークを使用して)シグモイド関数、; zは即ち0よりも大きい場合、G(z)は、0未満のZ 0.5より大きい、G(z)が0.5未満である場合
、Zは、分類境界に相当する表現は、正確にそのような分類G(z)は> 0.5、およびg(Z)に対応する境界の両側には、境界の異なる側に対応する負のzに分類された場合<0.5ので、大小関係のG(z)及び0.5に応じて、分類を達成することができます

ロジスティック回帰損失関数

問題の広場の機能の喪失

           

 

             

 

   

 

    

 

      H(OX)予測値、yが真の値です。

 

             

 

 解決するために、勾配降下法

目的機械学習や教師付き学習は、この勾配降下機能である(機能と定期的な肖像画の損失

 

おすすめ

転載: www.cnblogs.com/shengyang17/p/11442355.html