解釈可能な機械学習タスク01 - 予備知識
記事ディレクトリ
説明可能な人工知能とは何ですか?
- 現代の機械学習は統計的機械学習、特にディープラーニングであり、データを使用してデータ分布と意思決定エッジを適合させるものであり、高次元かつ非凸であり、意思決定はブラックボックスです。
- いくつかの魂の質問
- AI の脳回路は何ですか? AI はどのように意思決定を行うのでしょうか? それは人間の直感や常識と一致していますか?
- AIはどのような機能に注目するのでしょうか?また、それらの機能は本当に役立つのでしょうか?
- Al 予測結果に対するさまざまな特徴のさまざまな寄与を測定するにはどうすればよいでしょうか?
- AI はどのような場合に機能し、どのような場合に機能しないのでしょうか?
- AI は過学習ですか? AI の汎化能力はどのようなものですか?
- 彼はハッカーに惑わされてAIに鹿を馬に変えてしまうのだろうか?
- 敵対的な例
- サンプルの特定の特徴が大きくなった場合、それは Al 予測結果にどのような影響を及ぼしますか?
- アルが判断を間違えたとしたら、なぜ間違えるのでしょうか? どうすれば間違えないのでしょうか?
- 2つのアル予想では結果が異なりますが、どちらを信じればよいでしょうか?
- アルは学習した特性を人間に教えることができるのか?
- AIGC分野ではAIにはまだいくつかの問題がある
- それは彼が知識のこの部分を実際には学んでいないことを示しています
- ブラックボックスなので間違いが起こりやすい
- 自動運転などのいくつかの重要な分野で、人間にブラックボックスアルゴリズムを信じさせる方法
- 説明可能な学習は、ブラックボックス学習を開く研究です
なぜ学ぶ必要があるのか
- 説明可能な学習は AI のさまざまな方向と交差できる
- データマイニング、NLP、RL、KG、フェデレーテッド ラーニング
- 履歴書
- たとえば、ターゲット検出の識別基準
- NLP
- 判断語・文章分類用語
- 推奨システム
- 推奨の背後にある理論的根拠
- 一般的な調査方法
- 特定のタスクの組み合わせ
- 大規模モデル、弱い監視、欠陥異常検出、きめ細かい分類、意思決定
AI と強化学習、グラフ ニューラル ネットワーク、Al 補正、Al4Science、機械
学習、敵対的な例、トラステッド コンピューティング、フェデレーテッド ラーニング。
- 大規模モデル、弱い監視、欠陥異常検出、きめ細かい分類、意思決定
- 論文の執筆を解釈可能なアルゴリズムと組み合わせて、細分化された分野のタスクを分析できます。
- [音響画像法と畳み込みニューラルネットワークに基づく軸受故障診断手法と解釈可能性に関する研究](https://kns.cnki.net/kns8/Detail?sfield=fn&QueryID=10&CurRec=4&DbCode= CJFD&dbname=CJFDLAST2022&filename=ZDCJ202216029&urlid= &yx=)
- [レーダー画像深層学習モデルの解釈可能性の研究と探索](https://kns.cnki.net/kns8/Detail?sfield=fn&QueryID=10&CurRec=7&DbCode= CAPJ&dbname=CAPJLAST&filename=PZKX20220613003&urlid=11.5846.TP.20220613.0913.008 &y x =Y)
解釈可能性に関する横断的な研究の方向性
機械ティーチング
-
AIを通じて人間に学習を教える
-
例えば。Bird AI エキスパートをあなたと私のために働かせる
- AI を通じて人間に鳥の識別方法を教える
- 人間中心のAI
きめ細かい画像分類
- より詳細な分類では、大分類の下にさまざまなサブカテゴリーがあり、人間では分類が困難ですが、AI を使用することでより適切に分類できます。
- 意思決定を可能にする医療画像分類のヒート マップ
- kaggle:SIIM-ACR 気胸セグメンテーション
- 背景: 救急医療、教育
- 工業用欠陥の検出
- 業界には高品質のアノテーションが少なくなっています
- 1 つの分類モデルのみをトレーニングすることにより、解釈可能性によって欠陥位置 (検出/セグメンテーション) を特定する機能
- バイオインフォマティクス
- タンパク質
- 遺伝子研究
- オブジェクトの分類
- 建築
AI の安全性/敵対的な例
フロンティアAIディレクション
- チャットGPT
- 完全なブラックボックスで、解釈可能な分析に適しています
- AIGC
- 安定した拡散とその他の描画
- 大型モデル
- タンパク質
- アルファフォールド
本質的に解釈可能な学習
- KNN
- ロジスティック回帰
- 入力された特徴を理解することができ、重みはその特徴の意思決定の重要性を直感的に反映します。
- 線形回帰
- デシジョンツリー
- if else を使用した意思決定
- ナイーブ・ベイズ
いくつかの解釈可能性分析手法
- アルゴリズム内蔵の視覚化
- デシジョンツリー
- アルゴリズムに付属する特徴の重み
- 順列の重要性順列の重要性
- 特徴の列をランダムに破壊します。それがモデルに大きな影響を与える場合、それはより重要であることを意味します。
- スクラーンデモ
- PDP図、ICE図
- シャプリー值
- 図書館公式github
- ツリーモデルの解釈に使用可能
- 深層学習モデル
- モデルに依存しない説明
- 紙
- ライム
- 紙
- 予測に基づいてローカルで解釈可能なモデルを構築し、代表的なサンプルを同時に表示し、タスクをサブモジュールの最適化タスクにモデル化します。
解釈可能性とモデルのパフォーマンス
- 従来の機械学習アルゴリズムは一般に解釈可能性が優れていますが、予測効果はやや劣ります。
- ニューラル ネットワークは予測効果が最も優れていますが、解釈可能性は最も弱いです
- パフォーマンスと解釈可能性のトレードオフの仕組み1、2
解釈可能なアルゴリズムの分類
- 全て
深層学習の解釈可能性分析
- ニューラルネットワークは複数の層で構成されており、階層が上がるほど対応する高次元の特徴が抽象化され、人間が直接理解することが難しくなります。
- したがって、関連する解釈可能性アルゴリズムが必要です
- 例: 手書き配列認識のための機能マップ
CNN 解釈可能性分析
- 視覚化されたコンボリューションカーネル/特徴マップ
- ZFネット
- 中間フィーチャ レイヤーの機能と分類器の操作についての洞察を提供する新しい視覚化手法の導入
- オクルージョン、スケーリング、平行移動、回転といった間接的な方法が予測に及ぼす影響を通じてCNN を理解する
- デコンボリューションを使用して、特定のニューロンを活性化するピクセルまたは小さな画像を見つけます
- RCNN
- ニューロンの活性化から元の小さな画像を見つける
- 元の図 3、実験 3.1
- 著者はプーリングの第 5 層のニューロンを視覚化しています (白いボックスは受容野と活性化値です)。
- 一部のニューロンが、1 行目の人物や 4 行目の単語など、特定の概念を捕捉していることがわかります。
- 一部のニューロンはテクスチャやマテリアルをキャプチャします
- CAMベースの視覚化
- オリジナルの CAMに基づいて改良されたさまざまなアルゴリズムを含む、大規模なアルゴリズム
- さまざまなタスクに適用できる、一般的なローカライズ可能な深度表現を構築しました。
- トーチカム
- 画像セグメンテーションを視覚化する CAM の例
- 間違った予測についての説明
- モデルに偏りがあるかどうかを調べる
- (b) は偏ったモデルであり、髪で看護師を判断すると、髪(性別)を特徴として看護師を判断することになり、倫理に反します。
- セマンティック次元削減の視覚化
- 視覚化のために高次元のサンプル特徴の次元を低次元に削減することにより、分布はセマンティクスに関連します
- eg.word2vec の単語ベクトル表現 次元削減後、同様の意味を持つ単語が空間内に近接して分布していることがわかります。
- cs224N
- 次元削減アルゴリズム
- PCA
- TSNE
- UMAP
- ニーズを満たす画像を生成します
- サンプルを最適化することにより、画像は特定のニューロンの最大活性化や特定カテゴリの最大予測などの特定の要件を満たすことができます。
- アプリケーション シナリオ: 敵対的なサンプル攻撃
- FGSMなど
- サンプルを継続的に反復し、制約 (最小の外乱) を課すことにより、モデルは誤った判断を行います。
要約とさらなる読み物
- 手法の比較
- 比較した
- 張子豪コードベース
- pytorch-cnn-visualizations
- pytorch-grad-cam
- トーチカム
- 関連論文
- 畳み込みネットワークの奥深く: 画像分類モデルと顕著性マップの視覚化
- Score-CAM: 畳み込みニューラル ネットワークのスコア重み付けされた視覚的説明
- 「なぜあなたを信頼する必要があるのですか?」: 分類子の予測の説明
- 畳み込みネットワークの視覚化と理解
- 見せて伝える: ニューラル画像キャプションジェネレーター
- LayerCAM: ローカリゼーションのための階層型クラス アクティベーション マップの探索
- 識別的なローカリゼーションのための深い特徴の学習
- Grad-CAM++: 深層畳み込みネットワークのための一般化された勾配ベースの視覚的説明
- Grad-CAM: 勾配ベースのローカリゼーションを介したディープネットワークからの視覚的な説明
- OpenMMLabカテゴリ活性化ヒートマップ可視化ツールのご紹介
- DataWhale 6 機械学習解釈可能フレームワーク!
考える質問
参照
全て