分類と予測-LogisticRegression

1.分類と予測

1.1導入と実装プロセス

  1. 分類と予測は、予測問題の2つの主要なタイプです
    • 分類は主に、分類ラベル(離散属性)の予測、分類モデルの構築、サンプルの属性値の入力、対応するカテゴリの出力、および各サンプルの事前定義済みカテゴリへのマッピングです。
    • 予測とは、主に連続値関数モデルを確立して、特定の独立変数に対応する従属変数の値を予測することです。これは、2つ以上の変数が互いに依存している関数モデルを指し、予測および制御します。
  2. 実装プロセス
    • 最初のステップ:学習し、トレーニングサンプルセットを帰納的に分析してデータモデルを確立し、対応するルールを取得します
    • ステップ2:分類/予測:最初に既知のテストサンプルを使用して精度を評価し、テストに合格した後で未知のデータを予測します

1.2一般的に使用される分類および予測アルゴリズム

  1. メソッド紹介
    • 回帰分析:予測属性(数値タイプ)と他の変数の間の定量的関係を決定するために最も一般的に使用される統計的方法です。含む:線形回帰、非線形回帰、ロジスティックス回帰、リッジ回帰、主成分回帰、部分最小二乗回帰、その他のモデル
    • 決定木:トップダウンの再帰的方法を使用して、内部ノードの属性を比較し、さまざまな属性値に従ってノードから分岐します。最後のリーフノードは学習区分のクラスです
    • 人工ニューラルネットワーク:脳ニューラルネットワークの構造と機能を模倣して確立された情報処理システムであり、ニューラルネットワークの入力変数と出力変数の間の関係のモデルを表します
    • ベイジアンネットワーク:再び信念ネットワークになる
    • サポートベクターマシン:低次元非線形分離可能性を特定の非線形マッピングを通じて高次元線形分離可能に変換し、高次元空間で線形分析を実行するアルゴリズム

1.3ロジスティック回帰分析の概要

  1. ロジスティック回帰の本質は、実際には次のとおりです。データがこの分布に従うと仮定し、最尤推定を使用してパラメーター推定を行う
  2. バイナリ分類問題の場合、p個の独立した独立変数x 1 x_1を想定すると、回帰モデルには1-0の2つの値(yesとno、発生と非発生など)しかないバツ1×2 x_2バツ2×3 x_3バツ3xp x_pバツPアクションの下では、yが1をとる確率はp = P(y = 1 ∣ X)p = P(y = 1 | X)です。p=P y=1 X 、0をとる確率は1 − p 1-p1p、1と0をとる確率の比率はp 1 − p \ frac {p} {1-p}1 pP、イベントのオッズオッズと呼ばれ、オッズの対数を取ると、次のようになります:Logit(p)= ln(p 1 − p)Logit(p)= ln(\ frac {p} {1-p})L O G I T P =l n 1 pP、次にp = 1 1 + e − zp = \ frac {1} {1 + ez}p=1 + e - z1ロジスティック機能

1.4ケース操作

import pandas as pd
from sklearn.linear_model import LogisticRegression as LR
filename = r"..\data\bankloan.xls"
data = pd.read_excel(filename)
x= data.iloc[:,:8].values
y = data.iloc[:,8].values
lr = LR()
lr.fit(x,y)
print('模型的平均准确度为:%s'%lr.score(x,y))

おすすめ

転載: blog.csdn.net/ava_zhang2017/article/details/108306518