データセットのサンプル数によって損失関数の重みを計算します

ほとんどのデータセットカテゴリは不均衡であり、損失関数の重みを調整することでカテゴリを均衡化できます。
(1)ニューラルネットワークの各トレーニングプロセスでは、異なるクラスの重みが与えられ、最適なクラスの重みとして最も多くの結果が選択されますが、時間コストが非常に高いため、次の戦略をトレーニングに使用できます:
1)最初のトレーニングは加重モデル;
2)次に、異なるカテゴリーの加重パラメーターを指定し、ネットワークを微調整し、最適な加重パラメーターを選択します。

(2)損失関数の各カテゴリの重みを計算する式は、次のとおり
です。4つのカテゴリがあるとすると、対応するカテゴリ番号はa、b、c、dです
1)サンプルの総数/(カテゴリ
の数はカテゴリの数に対応します); 例:カテゴリaの重みIs:(a + b + c + d)/(4 a)
2)対応するカテゴリーの数/カテゴリーの合計:
例:カテゴリーaの重み:(a + b + c + d)/ a
3)T =対応するカテゴリの数/カテゴリの総数T1 = 1 /(log(k + T))
ここで、kは1より大きい定数で、kが1より小さい場合、重みは負に見える可能性があります。定数kは、サンプル比が中程度であることを保証し、ログは成長率を効果的に制御して、差異が大きすぎる場合の過度の比率の問題を回避します。
例:カテゴリーaに使用される重みは、T = a /(a + b + c + d)T1_weight = 1 /(log(k + T))です。

(3)損失関数を設計して、サンプルの不均衡と難しいサンプルの不均衡の問題を解決します
1)焦点損失
2)GHM(勾配の観点から、正と負のサンプル数の違いと簡単な例と難しい例の矛盾を解決します)

元の記事を36件公開しました 賞賛されました1 訪問6384

おすすめ

転載: blog.csdn.net/qq_34291583/article/details/104436432