深層学習データのロングテール問題

序文

最近仕事が忙しくて、仕事も休みも忙しくてなかなかブログを書いている暇がありません。今日、私は記事4D レビュー: 自動運転のためのデータのクローズド ループを作成する方法を読みましたか? , これはたまたま私が最近行っているターゲット検出に関連しています. 私はしばしばターゲット検出に問題があります. 10,000 サンプルのトレーニング セットがあるとします. トレーニング セットのサンプル数は非常にバランスが取れているとします. 5 つのカテゴリ. 各カテゴリには 2000 のサンプルがあります。今、リーダーは私に認識のクラスを追加するように頼んだが、数百しかない. 新しいクラスのサンプルが10,000のトレーニングセットに数百追加された場合、元のクラスに影響するか、新しいクラスに影響するか. ? 識別します。この問題がロングテール問題です。

従来の分類および認識タスクでは、多くの場合、トレーニング データの分布は人為的にバランスが取れています。つまり、異なるカテゴリのサンプル数に大きな違いはありません。バランスの取れたトレーニング サンプルには多くの利点があり、アルゴリズムの堅牢性の要件を簡素化するだけでなく、取得したモデルの信頼性をある程度保証します。ただし、サンプルのカテゴリが増えるにつれて、カテゴリ間のバランスを維持すると、収集コストが指数関数的に増加します。サンプルが人為的にバランスが取れておらず、意図的に介入されていない場合、これらのデータ カテゴリの分布は、多くの場合、下の図に示すようになります。分類および認識システムがロングテール データを使用して直接トレーニングされる場合、多くの場合、ヘッド データに過剰適合するため、予測時にテール カテゴリが無視されます。バランスのとれた分類器をトレーニングするために、アンバランスなロングテール データをどのように効果的に使用するかは、私たちの関心事です.産業需要の観点から、この研究はデータ収集の速度を大幅に向上させ、収集のコストを大幅に削減します.
ここに画像の説明を挿入

基本的な方法

リサンプリング

リサンプリングは、主にヘッド カテゴリのアンダーサンプリングとテール カテゴリのオーバーサンプリングです。本質は、サンプル数に応じて、画像のさまざまなカテゴリのサンプリング頻度を逆に重み付けすることです。最も一般的に使用される戦略の 1 つは、クラス バランス サンプリングです。カテゴリ バランスの概念は、主に、従来の学習プロセスにおけるサンプル バランスを区別することです。つまり、カテゴリに関係なく、各画像が選択される確率は同じです。カテゴリ均等化の核心は、異なるカテゴリのサンプル数に従って、各画像のサンプリング周波数に重みを付けることです。

リサンプリングとは、既存のデータが不均衡な場合に、モデルが学習中に接触するトレーニング サンプルを人為的に均衡させることで、頭部データのフィッティングをある程度減らすことを意味します。ただし、末尾の少量のデータは繰り返し学習されることが多く、十分なサンプルの違いがないため、十分に堅牢ではなく、先頭に十分な違いがある大量のデータは完全に学習されないことが多いため、リサンプリングは実際には行われません。完璧な解決策. .

リサンプリング方法については、以下を参照してください。

  1. Decoupling Representation and Classifier for Long-Tailed Recognition, ICLR 2020(代码:classifier balance

  2. BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition, CVPR 2020 (コード: BBN )
    ここに画像の説明を挿入
    この図は、ロングテール分類の最適な組み合わせが以下から得られることを示しています: バックボーン + Cross-Entropy Loss と元のデータを使用して学習リサンプリングで学習した分類子。

  3. 不均衡データ分類のための動的カリキュラム学習,ICCV 2019

加重

再重み付けは主に分類の損失に反映されます, これはサンプリングとは異なります. 損失計算の柔軟性と利便性のため, オブジェクト検出やインスタンスセグメンテーションなどのより複雑なタスクの多くは, 再重み付けされた損失を使用してロングテール分布を解決する傾向があります. . 重量損失、焦点損失などの問題

関連記事参照:

  1. Class-Balanced Loss Based on Effective Number of Samples,CVPR 2019(代码:class-balanced-loss
  2. Learning Inbalanced Datasets with Label-Distribution-Aware Margin Loss,NIPS 2019(代码:https://github.com/kaidic/LDAM-DRW)
  3. ドメイン適応の観点から見たロングテール視覚認識のためのクラスバランス方式の再考、CVPR 2020
  4. Remix: Rebalanced Mixup、Arxiv Preprint 2020

その他の求人情報

  1. Learning to Segment the Tail, CVPR 2020 (コード: https://github.com/JoyHuYY1412/LST_LVIS)
    この作業には 2 つのコア ハイライトがあります。1 つ目は、ロングテール分布の学習データを増分学習 (つまり、最初に共通のオブジェクト (頭のデータ) を学習し、次に共通のカテゴリの知識に基づいて、まれな尾のカテゴリを認識します。これは実は人間の思考に非常に近い学習方法です。本作の学習過程は下図のようになっており、発生頻度の高い順にカテゴリを並べ、学習段階ごとに分け、易しいものから難しいものまですべてのカテゴリを学習します。
    ここに画像の説明を挿入
    2 つ目のハイライトは、効率的なインスタンス レベルのリサンプリング (効率的なインスタンス レベルのリサンプリング) です。ロングテール分類の一般的な方法として、リサンプリングは、インスタンス レベルのデータを再重み付けすることなく簡単に実装できます。写真が 1 つのインスタンスのみをサンプリングする場合、インスタンス レベルのリサンプリングはイメージ レベルのリサンプリングに直接縮退できますが、十分に効率的ではありません。したがって、データの観察に基づいて、オブジェクトが表示されると、同じカテゴリの他のインスタンスが画像に表示されることが多いため、次の効率的なインスタンスのリサンプリングが提案されます。
    ここに画像の説明を挿入

  2. Focal Loss for Dense Object Detection, ICCV 2017(代码:https://github.com/clcarwin/focal_loss_pytorch)
    ここに画像の説明を挿入

  3. Equalization Loss for Long-Tailed Object Recognition、CVPR 2020(代码:https://github.com/tztztztztz/eql.detectron2)

  4. Overcoming Classifier Imbalance for Long-tail Object Detection with Balanced Group Softmax、CVPR 2020(代码:https://github.com/FishYuLi/BalancedGroupSoftmax)

  5. 不均衡なマルチラベルからの野生の大規模オブジェクト検出、CVPR 2020

参考

  1. ロングテール分類 (1) ロングテール (不均衡) 分布の下での分類問題の紹介

おすすめ

転載: blog.csdn.net/u012655441/article/details/124684999