I.はじめに
アンサンブル学習: 学習タスクは、複数の学習者を構築および組み合わせることによって達成されます。一般的な構造は次のとおりです。最初に「個々の学習者」のグループを生成し、次に特定の戦略を使用してそれらを結合します。組み合わせ戦略には主に平均法、投票法、学習法などがあります。
アンサンブル学習では、学習者個人の違いを「アンサンブルの多様性」と呼びます。多様性の統合をどのように理解するかは、この学習パラダイムの究極の問題、つまりとらえどころのない意味のある目標です。既存のアンサンブルダイバーシティ測定方法には、主に 2 つのカテゴリがあります。1 つはペアになった個別の学習者のダイバーシティ測定、もう 1 つはペアになっていない個別の学習者のダイバーシティ測定です。本稿では主に後者について論じ、要約する。
2. 準備
次の指標は個々の学習者に基づいて計算されるため、このセクションではいくつかの基本的な用語を宣言します。個々の学習者セット: ; データセット: 、サンプルとクラス ラベルはそれぞれ と です。
3. 不対ダイバーシティの測定方法
1. KW測定と呼ばれるKohavi-Wolpert 分散は、1996 年に Kohavi と Wolpert によって提案されました。具体的な計算方法は、
このうち、はサンプル数、は個々の学習者の数、は個々の学習者によるサンプルの正確な分類の数です。
式から、と が定数とみなされている ことがわかります。最も重要な点は、各サンプルが の半分のとき、KWメトリックが最大に達し、この時点で多様性が最大になります。また、各サンプルが のとき、すべて 0 または の場合、KWメトリックは最小値に達し、この時点でダイバーシティは最小になります。これは理解しやすいですが、各サンプルが 0 または の場合、すべての個別学習者の予測結果は同じになります。そうでない場合、各サンプルが の半分の場合、すべての個別学習者の予測結果は同じになります。異なる場合があります。完全に異なるわけではなく、異なる場合があることに注意してください。したがって、KWメトリックのダイバーシティ測定にはいくつかの問題があります。
2.評価者間の合意(Interrater Weapons)、つまり測定。メトリックは分類子のセットの一貫性を分析するために使用され、次のように定義されます。
このうち、は個々の学習者の平均分類精度であり、括弧内の条件が true の場合は 1 を返し、それ以外の場合は 0 を返す指標関数です。
この指標は主に、個々の学習者間の予測結果の一貫性を反映します。予測結果が完全に一貫している場合、の値は 1 になります。学習者間の一貫性の程度がランダムよりも悪い場合 (最も極端なケースは、正しく分類された各サンプルの結果が個々の学習者の半分であり、平均精度は 0.5)、その後。したがって、メトリックの値が大きいほど、個々の学習者の予測結果の一貫性は高くなりますが、多様性は小さくなり、逆も同様です。
3.エントロピー。2000 年に Cunningham と Carney によって提案されたエントロピー測定の計算方法は次のとおりです。
このうち、 はと予測される個々の学習者の割合を表します(割合の分母は)。明らかに、個々の学習者の精度を知る必要はありません。
2002 年に Shipp と Kuncheva によって提案されたエントロピー測度の計算方法は次のとおりです。
その中に、切り上げの符号があります。整数の場合は 、整数でない場合は、値の整数部分が +1 になります。の値の範囲は[0, 1]で、0に設定すると完全に一致していることを意味し、1に設定すると多様性が最も大きいことを意味します。対数関数が使用されていないため、古典的なエントロピーではないことに注意してください。それにもかかわらず、この方程式は実装が簡単で計算が速いため、より頻繁に使用されます。
4.難易度。サンプルを正しく分類した個々の学習者の割合が確率変数として記録されると仮定すると、難易度の計算方法は次のようになります。
このうち、確率変数の値の範囲は であり、分類器でデータセットを予測することで の確率分布を推定できます。したがって、確率変数の分布は次のようにリストされます。
... | ||||
... |
サンプルの分類難易度を測定し、値が小さいほど多様性が高くなります。上記の分布列をヒストグラムを用いて可視化すると、サンプルが分類されにくい場合、ヒストグラムの分布領域は主に左側に点在し、サンプルが分類されやすい場合、分布領域は主に左側に点在することになります。ヒストグラムの主に右側に点在します。
5.普遍的な多様性。この尺度は次のように計算されます。
このうち、、、 は、ランダムに選択された分類器がランダムに選択されたサンプルで予測できない確率を表します。メトリックの値の範囲は [0, 1] で、=0 の場合、多様性は最小になります。この尺度は、ある分類器の予測誤差に別の予測が正しい場合に多様性が最大になるという考えを捉えています。なぜこのようなことができるのかは、まだ分かりませんが、分かりましたらメッセージを残して教えてください。
6.同時故障測定。この尺度は、一般的な多様性の修正バージョンであり、次のように計算されます。
すべての分類器が同時に同じ予測結果を与える場合、cfd=0、各分類器のサンプルが異なる場合、cfd=1。申し訳ありませんが、まだ理解できません。
4. まとめ
上記の多様性の計算方法はすべて分類器に基づいて実装されています。このうち、評価者間の一貫性の 2 つを除いて、他の指標は統合の多様性に直接比例します。
実は筆者も総合学習の分野は始めたばかりで、まだまだわからないことだらけですが、もしご覧になった方はアドバイスをお願いします。何か理解できない場合は、コメント欄にメッセージを残して、この総合学習の不対の多様性について話し合ってください。
5. 参考文献
2. Zhou Zhihua. 統合学習: 基礎とアルゴリズム [M]. Electronic Industry Press、2020.