複雑なモデルを解釈する方法することができ--LIME

まず、モデルの解釈可能

    近年では、機械学習(深い学習が)それ以外の場合はブラックボックスとして知られている印象的な記録が、はるかに人間の理解を超えた彼らのモデルの深さと複雑さを、(マシンがある場合にも理解できないのですか?)あり、ときに機械学習モデルの良い汎化性能は、私たちは本番環境での相互検証することにより、精度、およびアプリケーションを確認することができますが、説明するのは困難であるとき、このような予測を行うために、このモデルは、どのような基づいている理由考えますか?機械学習の実践者が簡単にそれを明確にすることができたようなぜ性差別、人種的・民族的憎悪発言(訓練サンプルの問題)の一部のモデルが存在するが、私たちは消費者モデルに説明する必要があり、多くのシナリオでは、なぜモデル、それが明らかにされるしましょうこうした予測は、条件に医師を決定するための代替モデルとして、患者は、合理的な説明は、ビジネスシナリオでは、同社のモデルが意思決定を行うために不可欠である与えられているので、管理が説得力の説明を与える必要があります。また、説明はまた、モデルをさらに改善するために私たちを助ける最適化機能、一般化を向上させることができます。

    この記事LIME(ローカル解釈モデルに依存しない説明、LIME)メソッドのブラックボックスモデルは、簡単な導入と導出式を作成する方法を説明し、その長所と短所、自分の思考の簡単ないくつかのを伴ったテキストの終わりを導入

二、LIME

    主なアイデアは、この方法は、入力小乱れと、モデル内の深いいずれかの発生を検出するためのブラックボックスモデルの出力をせず、LIME解釈モデル(線形モデル、決定木)局所近似目標ブラックボックス予測モデルを使用することです関心の説明モデルの点(元の入力)をトレーニングして、この変化に応じて変形、。これは、説明のモデルではなく、その名の由来であるグローバルな近似値の部分のブラックボックスモデルを近似することができることは注目に値します。

    次のようにLIME数学的な表現は次のとおりです。

\ [説明(X)= argを\ MIN_ {GのG \} L(F、G、\ pi_x)+ \オメガ(G)\]

    例えば\(X \)解釈モデル\(G \) 我々は、損失関数最小化することによってモデルを比較する\(G \)と、元のモデル\(F \)前記近似を\(\オメガ(G )\)解釈モデル表す\(グラム\) モデルの複雑さを\(G \)全ての可能な説明モデルを表す(例えば、我々は線形モデルを説明したいと思い、\(G \)は、)線形モデルの全てを示しています\(\ pi_ {X} \ ) 定義\(X \)近傍を。我々は最小限に\(Lの\)をモデルするような\(F \)が解釈可能になります。前記モデル\(G \) 近隣のサイズ範囲は、モデルの複雑さを定義する必要があります。

    下記の構造化データ型、簡単な説明のLIMEワークフローのため。

    第1の説明モデル、関心xの点、近傍の範囲を決定する構造化データのため。LIME最初グローバルサンプリング、及び全てのサンプリング点について、xの近傍に特徴点を選択し、モデルフィッティング解釈可能の範囲を使用して、関心のある地点の近傍次に。以下は\(^ 1 \)

IMG

前記負灰色背景の実施形態では、青色の背景色が正例であり、関心のある黄色の点、小粒径のサンプリング点黒点、近傍の黒丸大きい粒径範囲、LIME右下の写真は、結果を示します。

    私たちのLIMEの利点、任意のブラックボックスモデルを解釈することができ、原理は簡単で、幅広いアプリケーションであることを確認することは容易です。しかし実際には、いくつかの問題があります。

  • 近傍範囲を決定し、以下に示すように異なる近傍域、得られた局所的に説明するモデルは、非常に異なっていてもよいです

IMG

    X = 1.6のために、説明のモデルに対応する異なる近傍(0.1,0.75,2)の範囲であっても逆に、全く異なっていてもよいです。

  • サンプリングは、完全なサンプルセットがモデルを説明することはほとんどありませんいくつかのサンプル点を引き起こす可能性がある機能との関係を、無視して、ガウス分布を用いたサンプリングでサンプリングされています。

  • モデルの複雑さは、事前に定義する必要がありますについて説明します。

  • 不安定性を説明します。同じ繰り返しの説明のために同じパラメータを使用する方法が、結果は全く異なっていてもよい。\(5 ^ \)

第三に、要約

    人気の機械学習における現在の研究などのモデル解釈可能、LIMEの結果は非常に、有益なブラックボックスモデルの局所的なポイントを検出することで、無制限の、ローカルに説明装着単純なモデルです。しかし、欠点は、これらの欠点が困難な大規模なアプリケーションのためのLIME手法につながったことも同様に明らかです。

    フォローアップは、(現在の研究では、それは少しの読み取りである。書き込みを読む)シャープレイ値に基づいて、SHAP方法を紹介します

参考リンク:

  1. https://christophm.github.io/interpretable-ml-book/lime.html
  2. https://blog.csdn.net/a358463121/article/details/52313585
  3. https://cloud.tencent.com/developer/article/1096716
  4. 論文は対処します。https://arxiv.org/pdf/1602.04938v1.pdfを
  5. アルバレス・メリス、デビッド、とトミS. Jaakkola。arXivののプレプリントarXivの「判読方法のロバスト性について」:1806.08049(2018))

    オリジナルのフライング剣士からこの記事は、転載の場合は、民間企業との接触はほとんど知っているお問い合わせ先:@AndyChanCD

おすすめ

転載: www.cnblogs.com/moonwanderer/p/11695487.html