綿密な研究 - 目的関数を要約し、整理

また、機能の喪失として知られている目的関数は、ネットワークパフォーマンスの関数であり、一つは、二つのパラメータのモデルをコンパイルしなければなりません。関数型の大きな損失に起因して、一例としてkerasネットワークを次のように公式マニュアル。

公式keras.io内部には、以下の情報があります:

  • mean_squared_error或MSE

  • mean_absolute_error或駅前

  • mean_absolute_percentage_error或MAPE

  • mean_squared_logarithmic_error或MSLE

  • squared_hinge

  • 蝶番

  • (また、損失、loglossの数に対するとしても知られる)binary_crossentropy

  • categorical_crossentropy:損失の対数として知られる長いクラス、形式に変換される、ラベルの必要性を指摘し、目的関数を使用して(nb_samples, nb_classes)バイナリ配列の

  • 上記のように、しかし、スパース許容ラベル:sparse_categorical_crossentrop。この機能はまだ同じ寸法を必要とし、出力はあなたのタグ値使用しているとき、あなたはラベル上のデータの次元を追加する必要があることに注意してください:np.expand_dims(y,-1)

  • kullback_leibler_divergence:P、二つの分布間の差の測定値の確率分布情報利得Qの真の値の確率分布の予測値。

  • cosine_proximity:すなわち、コサイン距離平均実タグの予測値の逆の


mean_squared_error

  名前が示唆するように、また、MSEと略記標準偏差として知られ、二乗誤差を意味することを意図して、データセットの分散の程度を反映することができます。

  各測定の標準誤差は、二乗誤差の平方根平均値として定義され、それはまた、平均二乗誤差が知られています。

  公式:

 

  式の有意性は:直線距離をポイントからn次元空間の関数として理解することができます。(これは、グラフ上でどのように個人を理解する鍵の理解です)


mean_absolute_error

  平均絶対誤差、頭字語MAEとして翻訳。

  平均絶対誤差はすべて、個々の観察の平均絶対偏差及び算術平均です。

  (F Iは、 Yの予測値であり、Iは、実際の値、絶対誤差です| E_ {I} | = | F_ {I} -y_ {I} |

 


 

mean_absolute_percentage_error

  平均絶対パーセント誤差、頭字語のMAPEとして翻訳。

  式:(A Tは、実際の値を表し、F. Tは、予測値を表します。)

 


 

mean_squared_logarithmic_error

  MSLEを略し、対数平均二乗誤差に翻訳。

  式:(n値が観測されたデータセット全体では、P Iは予測値であり、A Iは真の値です)

 


 squared_hinge

  式MAX(0,1-y_true *はy_pred)^ 2.mean(軸= -1)、累積値の平均二乗は、予測値と製品の実際の値を減算取ら0 1とは反対の結果よりも大きくなっています。


 

蝶番

  式の結果が0 MAX(0,1-y_true * y_pred)である.mean(軸= -1)、一方の製品マイナス比較的大きな値の累積平均比の予測値と実際の値をとります。

  ヒンジ損失は、最も一般的に、SVM分類の間隔を最大化するために使用されています

  可能出力  T  =±分類子スコア1および  Yは、予測値  Y  以下のようにヒンジ損失が定義されます。

  L(Y)= MAX(0,1-T * Y)
  参照してください。  yは  分類器の決定関数の「生」の出力ではなく、究極のクラスの標準である必要があります。例えば、SVMのラインで
   Y = W * X + B

  ときことがわかる  トン  と  yが  とき(つまり、同一の符号  yが  正しい分類を予測)

   | Y |> = 1

  この時点で、ヒンジ損失

   L(Y)= 0

  しかし、彼らは反対の符号である場合に

  L(y)はに従いあろう  yは  線形片側誤差を増大させます。(ウィキからの翻訳)

binary_crossentropy

  この関数、対数損失、損失の数に対応するシグモイド機能の喪失。

  式: L(Y、P(Y | X - ))= -log P(Y | X - )

  この機能は、主に最尤推定のために使用され、これは計算を容易にします。誘導体のための最尤推定値は非常に面倒であり、一般的に対数微分を求め、次いで、極値点を求めるからです。

  通常、ちょうど損失のそれぞれの対数を取る損失関数の損失やデータのそれぞれは、まで追加することができます。負号手段最小損失に対する最尤推定相当すること。


categorical_crossentropy

  マルチ対数損失関数の分類、および分類ソフトマックス対応する損失関数、李前出。

  チップ:この損失関数と、対数損失関数のクラスにシグモイド差を属し、主にバイナリのためのシグモイドをソフトマックス、エントリーステージの両方のためのマルチ分類(も小さい直列,,対数損失関数のためのソフトマックス違いは不明で、かなり)ありがとう、偉大な神を追加するために歓迎し、理解していない派生しています。


sparse_categorical_crossentrop

  損失の数に基づいて複数の機能の上記分類では、スパースを増加させる(すなわち、データ0を複数備え、特定のデータセット内のデータ)、などのディレクトリは、ディメンションnp.expand_dims(Yタグデータを追加する必要があると述べ、 -1)。


kullback_leibler_divergence

  (WIKIからの翻訳)

  離散確率変数のために、確率分布P  と  Q KL発散は、次式のように定義することができます。

D _ {{{\ mathrm {KL}}}}(P \ | Q)= \総和_ {I} P(I)\ LN {\ FRAC {P(I)} {Q(I)}} \。!

  すなわち確率に従ってPによって得られたP及びQの平均値の差の数。確率のみKL発散P及びQは、それぞれの和である1、及びいずれかのために、私は満足しています

  Q(I)> 0 P(I)> 0、のみ定義。式に登場0Ln0のどの値に応じて、状況0プロセス。

  連続確率変数のために、確率分布PQは一体として定義することができます 

  D _ {{{\ mathrm {KL}}}}(P \ | Q)= \ INT _ {{ -  \ inftyの}} ^ {\ inftyの} P(X)\ LN {\ FRAC {P(X)} { Q(X)}} \、{{\ RM {D}}} X、\!

 

  前記のpqは、それぞれの分布表しP及びQ密度。

  場合より一般的には、PQが設定されているXの確率測度、およびQPから、絶対連続PQ KLダイバージェンスのように定義されます

  D _ {{{\ mathrm {KL}}}}(P \ | Q)=  -  \ INT _ {X} \ LN {\ FRAC {{{\ RM {D}}} Q} {{{\ RM {D }}} P}} \、{{\ RM {D}}} P、\!

 

  ここで、式の右辺の形態を想定存在する{\ FRAC {{{\ RM {D}}} Q} {{{\ RM {D}}}}} PようQのP R-Nの導電性の数。

  したがって、もしP上のQ絶対連続、

D _ {{{\ mathrm {KL}}}}(P \ | Q)= \ INT _ {X} \ LN {\ FRAC {{{\ RM {D}}} P}、{{{\ RM {D} }} Q}} \、{{\ RM {D}}} P = \ INT _ {X} {\ FRAC {{{\ RM {D}}} P}、{{{\ RM {D}}} Q }} \ LN {\ FRAC {{{\ RM {D}}} P}、{{{\ RM {D}}} Q}} \、{{\ RM {D}}} Q、

  すなわち、PQ二つの分布間の差を測定するために、相対エントロピー。


cosine_proximity

  この方法は、2つのベクトルのコサイン類似度を決定するために使用されます。

  セット、ベクトルA =(A1、A2、...、AN)、B =(B1、B2、...、BN)、そこ

  

  

  範囲[1,1]の間の余弦値は、1の値が近い、2つのベクターは、それらの方向のより一貫した0に近い方向を表します。対応するより高い類似性。

おすすめ

転載: www.cnblogs.com/Milburn/p/11964538.html