フォーカル損失関数の研究ノート

柯Kaiming紙-RetinaNetの神のために提案された損失関数:高密度物体検出のための焦点の損失

フォーカル損失の目標

SSD / YOLOとして一段階目標検出ネットワーク正常モデル学習モデル機能のシリーズに高密度で発生します分類10,000端子も100,0000対象候補領域のマッピング、及びこれらの候補領域のそれぞれと位置識別を返します。
しかし、これらの地域で数十の候補者の何千ものを生成し、サンプルカテゴリの不均衡が存在する背景領域の大半。簡単な負の例は、適切な訓練に関するガイダンスを提供することができモデルに到着することができなくなって、一般的に使用されるトレーニング損失の正常な役割を再生することはできません陽性サンプルの数が少ないから提供勾配更新、重要な情報の方向を支配する、損失の寄与に大きな役割を果たします損失。
この問題を解決するための一般的なアプローチは、ネガティブサンプルを掘ることです。

陽性および陰性サンプルの割合で深刻な不均衡に1段目標検出の問題を解決するために提案されている主の焦点損失。この関数は、単純な陰性サンプルの多数の右ウェイトトレーニングの割合の損失を低減することも困難で試料掘削として解釈することができます。

フォームの焦点損失関数

BCE損失の最初のレビューから、改善されたバイナリクロスエントロピー(BCE)に基づきます。
CROSS損失関数生のバイナリ形式を次のように
ここに画像を挿入説明
してみましょう:
ここに画像を挿入説明
それを得ることができる:
ここに画像を挿入説明
Yは、予測された出力です。

陽性試料、陰性試料に対してより大きな出力確率小さい損失、より小さい出力確率は、小さい損失の損失関数。この時点で負のサンプルがたくさんある場合、それは、単純な反復プロセスにおける多数のサンプルにおける機能の喪失を遅くすることができ、最高に最適化されない場合があります。

以下、(陰性試料)簡単な例(白金>> 0.5)があっても 、 その損失が高く、図の青い線としてもです。
簡単な例(白金>> 0.5)、その損失は、図の青い線としても高いです。
ここに画像を挿入説明
そのBCEのため、サンプルその大きな数を減少させる方法の負の影響?
次のようにα係数の導入になる:
ここに画像を挿入説明
重力にほぼ対向サイズクラス因子。それはより多くの負のサンプルである、我々はそれをあまり重みを与えます。これは、負のサンプルの影響を低減することができます。

しかし、これは正と負のサンプルの不均衡を解決するだけで、それは簡単で、ハード例の間の不均衡に対処していません。
そのため、簡単かつハードサンプルのため、我々は焦点の損失を定義します。
:フォーム以下焦点損失
ここに画像を挿入説明
読み取るために簡略化:
ここに画像を挿入説明
重量が低減されるので、簡単なサンプルについては、Ptは、比較的大きくなるが、ハード例えば、Ptが比較的小さく、重量がネットワークパラメータを更新するためにこのようなサンプルを使用する傾向があるように、比較的大きいです。
2と組み合わせることで、最終的な焦点損失を取得するために改良さ:
ここに画像を挿入説明
正と負のサンプルに対応しつつ、サンプルは、不均衡の問題を緩和します。

参考:
https://blog.csdn.net/LeeWanzhi/article/details/80069592

公開された29元の記事 ウォン称賛12 ビュー10000 +

おすすめ

転載: blog.csdn.net/c2250645962/article/details/104020771