ロジスティック回帰機械学習(2):API呼び出し--sklearn.linear_model.LogisticRegressionロジスティック回帰パラメータが意味あるものにしています

ロジスティック回帰は、知識・ポイントが必要です

ここに画像を挿入説明

  • 私たちは、ロジスティック回帰機能の損失を知っています
  • ロジスティック回帰の最適化は知っています
  • 私たちは、シグモイド関数を知っています
  • あなたは、シナリオロジスティック回帰を知っています
  • アプリケーションロジスティック回帰はロジスティック回帰予測を実現します
  • 私たちは、精度の違いを知って、リコール指標
  • 私たちは、評価サンプルの不均衡を解決する方法を知っています
  • 指示AUCインデックスのサイズの意味を理解するためのROC曲線
  • Classification_report正確なアプリケーション、リコール計算
  • コンピューティングアプリケーションのための指標roc_auc_score

ロジスティック回帰は、APIを導入しました

  • sklearn.linear_model.LogisticRegression(ソルバ= 'liblinear'、ペナルティ= 'L2'、C = 1.0)
    • オプションソルバパラメータ:{ 'liblinear'、 'サグ'、 '佐賀県'、 'ニュートン-CG'、 'lbfgs'}、
      • デフォルト:「liblinear」;最適化問題のためのアルゴリズム。
      • 小さなデータセットの場合、「liblinearは」良い選択、「サグ」と速く大規模なデータセットのための「サガ」です。
      • 問題の多くの種類の、唯一の「ニュートン-CG」、「サグ」、「サガ」と「lbfgs」の損失の数を処理することができます。唯一の「1対残りの」分類「liblinear」。
    • ペナルティ:の種類の正則もペナルティ項と呼ばれる正則化項、あまりにもそれを罰するために、予防するためにモデルを微ので、
    • C:正則化努力と線形回帰アルファ理由です

正の例として、デフォルトカテゴリの数が少ないです

ロジスティック回帰法はSGDClassifier(損失=「ログ」、ペナルティ=「」)、SGDClassifier実装共通確率的勾配降下法学習と等価です。使用ロジスティック回帰は、SAGを達成し、

ここに画像を挿入説明

公開された545元の記事 ウォンの賞賛701 ・は 80000 +を見て

おすすめ

転載: blog.csdn.net/qq_35456045/article/details/104532623