[機械学習ノート]混同マトリックス(混乱マトリックス)

混同マトリックス(混乱マトリックス)

機械学習、混同行列(混同マトリックス)の分野において、また、マトリックスまたはエラーマトリックスの可能性として知られています。混同行列は、特に教師付き学習のために、一般的に教師なし学習は、マッチング行列と呼ばれ、視覚化ツールです。主比較及び分類結果を得るために画像評価精度、実測値では、分類結果の精度が混同マトリックス内部に表示されています。

次のように一般的な方法を示す混同行列の構成図です。

エクスプレス意味の混同行列:

  • 各列は、各列がカテゴリの予測の合計数の数を表し、予測クラス混同行列を表します。
  • 各行は実際のホームカテゴリデータ、データの各列の合計数を表し、このクラスのデータ・インスタンスの数を表し、各列の値は、実際のデータの数は、クラスを予測さ表します。

 真陽性(TP):実際のクラス。実際のクラスのサンプルは、ポジ型である、モデル識別結果が肯定的クラスです。

 偽陰性(FN):偽陰性カテゴリ。カテゴリーサンプルは正の実クラスですが、負のモデルクラスとして認識します。

 偽陽性(FP):偽陽性のクラス。実際のクラスのサンプルは陰性クラスですが、正のモデルクラスとして認識します。

 真陰性(TN):負の実クラス。真のカテゴリクラスサンプルは負であり、負のモデルクラスとしてそれを認識しています。 

 二クラス分類マトリックスは、容易に理解使用することができるが、混同行列の複数の行と列を追加することによって容易に質問値の3種類以上にも適用することができます。


例えば

クラスI、II、III 50毎に予測サンプルデータ150、もし。次のように得られた分類混同行列の終了後:

各行は、そのカテゴリのサンプルの真の数の合計を表し、各列は、カテゴリについて予測されるサンプルの数の合計を表します。

第一のカラム43の最初の行は、第2列の最初の行は、ホームの第一のカテゴリーの2つの実用的な例であり、同じトークン、第一のタイプであると予測される43は、実際の型の最初のインスタンスに属する表します第二種が予測ミスされます。

混同行列は、分類問題の予測をまとめたものです。混同行列の鍵である各クラスの内訳によると、正しい要約カウント値と誤った予測の数を使用してください。分類モデルは、予測を行う際に混乱を引き起こすだろう一部の混同行列を示しています。それは、あなたが分類モデルの過ちを理解することができ、エラーの種類が発生しているかを理解することでより重要であるだけではなく。これは、結果のこの分解は唯一の分類精度がもたらす使用の限界を克服です。


混同行列分類インデックスから取得

精度(正解率)、プレシジョン(正解率や精度)、リコール(リコール)、特異性(特定)、感度(感度):混同行列の中から、あなたは、より高い分類インデックスを取得することができます。

計算

バイナリ分類のため、サンプルカテゴリを予測している機械学習の彼らの本当の組み合わせに応じたカテゴリに分類することができ、次のとおりです。

サンプルの総数= TP + FP + TN + FN。

指数を計算することが可能です。サンプルの総数= TP + FP + TN + FN

正解率(精度):正解率が最も一般的に使用される分類性能です。モデルの精度、正しい数/サンプルを同定するためのモデル、すなわち合計数を示すために使用することができます。一般に、モデルの精度が高いほど、より良いモデルの結果。

精度=(TP + TN)/(TP + FN + FP + TN)

 

精度又は正確さ(精度)も精度としても知られているが、正のサンプルクラスとして識別されたモデル、共有のクラスの陽性サンプルの真の割合を表します。一般に、より高い精度、モデルのより良い効果。

精度= TP /(TP + FP)

 

リコール(リコール):またリコールとして知られリコールは実際の陽性サンプルを示し、分類器は、どのくらいのアウトを予測することができます。

リコール(リコール)=感度(敏感指数、真陽性率、TPR)=リコール

それは、正しく識別されるサンプルの数の正のクラスクラス比の陽性試料の総数のモデルを表します。一般的に、リコールが高く、より多くの陽性サンプルは正しくクラス、より良いモデルのモデルを予測した示します。

リコール= TP /(TP + FN)

 

精度と再現率は矛盾の指標です。一般的に、とき適合率と再現率の欲しい低い;第二に再現率、精度しばしば低いです。

正解率(精度)および精度(精度)の間の差

長い予測は、分子の数に置かれていること、正しいこと、および分母は正解率は、すべてのデータの判断であることを証明するデータの総量であるほど精度に関係なく、どのようなカテゴリ、。
対応するカテゴリの精度は、カテゴリが正しい分子数予測カテゴリである、分母は、すべてのカテゴリの予測数です。
それとも、精度は、分類の全体的な精度の評価である、とプレシジョンは、特定のカテゴリの正確な評価を予測するための分類器です。

特異(特定):特異的マーカーは、ネガ型、ネガ型の比のサンプルの総数のモデル同定のサンプル数を示します。

負正クラスレート(偽陽性率、FPR)、 FPR = FP /(TN +:以下のように計算 FP)、 モデル障害によって算出は全て陰性クラスサンプルのネガ型サンプル正クラスの割合として識別され、一般的に低いですより良いです。

特異= 1 - FPR 

 

F. Β_Score:物理的意味は、β倍の重量正解率のリコールをマージする過程で、Fβ加重平均精度と再現率です。

F1スコアはリコールと精度が等しく重要であると考えてF0.5スコアが再現率の重要性は半分正しいレートであると考えているが、リコールの重要考えF2画分は、2倍の正しい比率です。F1は、より一般的な画分(F1スコア)であり、2つの分類モデルの統計精度の指標を測定するために使用されます。

F1_Score:としても知られているF1画分(F1スコア)のための数学的定義、Fスコア(バランススコア)のバランス精度と再現率の調和平均として定義されます。β= 1の場合に、F1スコアの値が0から1までであり、1が最良であり、0最悪。

我々は高精度、リコール、特異性および他のコンピューティングを計算するだけの分類と精度とF1-スコアモデルを備えていることを知っているので、全体的な分類基準を決定することです。


AUCについて

http://fastml.com/what-you-wanted-to-know-about-auc/

AUC、または下面積曲線は、バイナリ分類のための測定基準です。それは精度の後、おそらく第二最も人気の一つです。残念ながら、それは直感的なようにどこにも近いです。あなたがこの記事を読むまでそれは、です。

あなたを意味するものとゼロと精度のお得な情報は、いずれかのクラスラベルの権利を得たりはしませんでした。しかし、多くの分類は、確率値を出力することによって、その答えについての彼らの不確実性を定量化することができます。確率から計算精度にあなたは一つにゼロターンを決定するしきい値を必要としています。最も自然なしきい値はもちろん0.5です。

あなたは風変わりな分類器を持っているとしましょう。右のすべての答えを得ることができますが、それは正の例については、負の例については、0.7と0.9を出力します。明らかに、0.5のしきい値は、はるかに、ここであなたを得ることはありません。しかし、0.8は完璧だろう。

それはAUCを使用しての全体のポイントだ - それはすべての可能なしきい値を考慮します。様々なしきい値が異なる真陽性/偽陽性率につながります。あなたは、しきい値を下げると、あなたはより多くの真の陽性が、また、より多くの偽陽性を取得します。それらの間の関係をプロットすることができます。

画像のクレジット:ウィキペディア

ランダム分類器からは、偽陽性として多くの真陽性として期待することができます。これは、プロット上の破線です。場合のAUCスコアは0.5です。完璧な分類器のスコアは、1。ほとんどの場合、あなたは、間に何かを得るだろう。


ここでは、ウェブ上で見つけた情報の一部であります


ROC / AUCコンセプト

1.感度、特異度、真率、偽陽性率

正式なプレゼンテーションROC / AUC前に、我々はまだ2つの指標を導入する必要があり、これら2つの指標を選択ROCおよびAUCは、サンプルの不均衡の原因を無視することができますもあります。これら2つのインジケータは、次のとおり、実レート(TPR)と偽陽性率(FPR)として知られている感度と(1-特異度)

感度(感度)= TP /(TP + FN)

特異性(特異性)= TN /(FP + TN)

  • 実際には、我々は、名前だけがそれを変更し、感度と再現率がまったく同じであることがわかります。
  • 私たちはより多くのポジティブサンプルを懸念しているとして、(1-特異性)を使用するので、むしろ特異性よりも、間違って陽性サンプルであると予測されたどのように多くの負のサンプルを参照する必要があります。

実質金利(TPR)=感度= TP /(TP + FN)

偽陽性率(FPR)= 1-特異度= FP /(FP + TN)

以下の模式真と偽陽性率は、我々が見つかりました。彼らは、関連する問題を観察する確率で真の正と負のサンプルであったことが、TPR及びFPRは、1と0の出発の実際の性能に基づいています。このため、これに関係なく、サンプルのバランスかどうか、それが影響を受けることはありません。または前の例を取る、全試料は、試料の90%が、10%の陰性試料正です。私たちは、精度が水であると知っているが、TPR及びFPRと同じではありません。ここでは、TPRは実際に覆われているどのくらいの陽性サンプルのわずか90%に注力し、何も10%が共感、とやっていることを、FPRだけ間違った報道がどのくらいの負のサンプルの10%を懸念し、またその90私たちが見ることができるように%は何の関係はありません。私たちはそれぞれの結果の実際の性能の観点から開始する場合は、ROC / AUC指標の理由として、TPR及びFPRの理由の選択肢である試料中の不均衡の問題を回避することができます。


記事を参照して学ぶことについて疑問を提起した:特異性(特異性)と感度(感度)

録音は、何の理解はありません。

それぞれ二つのカテゴリ、カテゴリ0、1、1、0、ケースを考慮し、分類の実際の結果は、4、次のテーブルを有し、ポジ型(正)及びネガ型(負)であろう。

この表から他のいくつかの評価を引き出すことができます。

  • ACC:分類精度は、分類器の説明分類精度は
    次のように計算される:ACC =(TP + TN) /(TP + FP + FN + TN)
  • BER:エラーバランス率は
    次のように計算されます= 1/2 *(BER FPR + FN /(FN + TP))
  • TPR:真陽性のレート、N-た実施形態全ての正例の全ての識別された割合は、
    のように計算される:TPR = TP /(TP + FN)
  • FPR:負例の全症例の割合は以下のように評価は、偽陽性を、負の実施形態は、正の識別の場合について説明し
    、次のように計算される:FPR = FP /(FP + TN)
  • TNR:レートは、真の陰性に、負の例は、すべての負の例の識別された割合を記述
    のように計算される:TNR = TN /(FP + TN)
  • PPV陽性予測値は
    のように計算される:PPV = TP /(TP + FP)
  • NPV陰性予測値
    計算式:NPV = TN /(FN + TN)
    前記TPRは、感度(感度)で、TNRは、特異性(特異性)です。

ウィキペディアの図面:

 

以下はウィキに撮影したスクリーンショットです(https://en.wikipedia.org/wiki/Confusion_matrix) 

 

 

公開された619元の記事 ウォンの賞賛185 ビュー660 000 +

おすすめ

転載: blog.csdn.net/seagal890/article/details/105059498