keras model.compile(損失= '目的関数'、オプティマイザ= 'アダム、メトリック= [ '精度'])

目的関数

また、機能の喪失として知られている目的関数は、ネットワークパフォーマンスの関数であり、一つは、二つのパラメータのモデルをコンパイルしなければなりません。関数型、一例としてkerasネットワークに次の公式マニュアルの大規模な損失による。

公式keras.io内部には、以下の情報があります:

  1. mean_squared_error或MSE

  2. mean_absolute_error或駅前

  3. mean_absolute_percentage_error或MAPE

  4. mean_squared_logarithmic_error或MSLE

  5. squared_hinge

  6. 蝶番

  7. (また、損失、loglossの数に対するとしても知られる)binary_crossentropy

  8. categorical_crossentropy:損失の対数として知られる長いクラス、目的関数を使用して、ラベルフォームに変換する必要がある、注目(nb_samples, nb_classes)バイナリシーケンスの

  9. 上記のように、しかし、スパース許容ラベル:sparse_categorical_crossentrop。この機能を使用すると、まだ同じ大きさと出力値タグを必要とするとき、あなたはラベル上のデータの次元を追加する必要があることに注意してください:np.expand_dims(y,-1)

  10. kullback_leibler_divergence:P、二つの分布間の差の測定値の確率分布情報利得Qの真の値の確率分布の予測値。

  11. cosine_proximity:すなわち、コサイン距離平均実タグの予測値の逆の

1.mean_squared_error

名前が示唆するように、また、MSEと略記標準偏差として知ら乗誤差を意味することが意図され、それは、データセットの分散の程度を反映することができます。

各測定の標準誤差は、二乗誤差の平方根平均値として定義され、それはまた、平均二乗誤差が知られています。

公式
{2} \ ^(右\ \チルダ{Y} _ {I} -Y_ {I})左\ \ sum_ {i = 1} ^ {N} [MSE = \ FRAC {1} {N} \ ]

式の有意性は:直線距離をポイントからn次元空間の関数として理解することができます。(これは、グラフ上でどのように個人を理解する鍵の理解です)

2. mean_absolute_error

平均絶対誤差、頭字語MAEとして翻訳。
平均絶対誤差はすべて、個々の観察の平均絶対偏差及び算術平均です。
式:
\ [\ mathrm MAE} = {\ N-FRAC {} {} 1 \ sum_ {I} 1 = N ^ {} \左| -y_ F_ {I} {I}右\ | = \ {FRAC 1。}。 {N-} \ sum_ {I = 1} ^ {N-} \左| E_ {I}右\ | \]
\(F_iと\)は予測値であり、\(Y_Iは\)実際の値、絶対誤差であり、\(\左| E_ {I} \権| = \左| -y_ F_ {I} {I} \権| \)

3.mean_absolute_percentage_error

平均絶対パーセント誤差、頭字語MAPEとして翻訳。


。\ [\ mathrm {M} = \ N-FRAC {} {} 1 \ sum_ 1} = {T} ^ {N- \左| \ A_ FRAC {T} {} {} T {-F_ A_ {T} }右\ | \]
(\ (A_T \)実際の値を表し、\(F_Tを\)の予測値を表します。)

4. mean_squared_logarithmic_error

対数平均二乗誤差に翻訳、MSLEを省略。

:\
。[\ varepsilon = FRAC {1} {N-} \ sum_ {I = 1} ^ N \ - {\左(\ \左(P_I +ログ1 \右) - \ログ\左(a_iを+ 1右\ )\右)^ 2} \]
(n値が観察された全データセットであり、\(P_I \)は予測値であり、\(a_iを\)真値)

5.squared_hinge

式MAX(0,1-y_true *はy_pred)^ 2.mean(軸= -1)、累積値の二乗平均予測値と製品の実際の値を減算取ら0 1とは反対の結果よりも大きくなっています。

6.hinge

式の結果が0 MAX(0,1-y_true * y_pred)である.mean(軸= -1)、一方の製品マイナス比較的大きな値の累積平均比の予測値と実際の値をとります。

ヒンジ損失は、最も一般的に、SVM分類の間隔を最大化するために使用されています

可能の出力T。クラシファイアスコア±= 1及びYは、予測値Yを次のようにヒンジ損失が定義されます。

L(Y)= MAX(0,1-Tの*のY)

Y = W * X + B

ときことがわかるトンyは同一の符号(意味際にyが正しい分類を予測)

| Y |> = 1

この時点で、ヒンジ損失

L(Y)= 0

しかし、彼らは反対の符号である場合に

L(y)はに従いあろうYリニア片側誤差を増大させます。(ウィキからの翻訳)

7.binary_crossentropy

この関数は、損失、損失の数に対応するシグモイド関数の損失を記録します。

  式: L(Y、P(Y | X - ))= -log P(Y | X - )

  この機能は、主に最尤推定のために使用され、これは計算を容易にします。誘導体のための最尤推定値は非常に面倒であり、そしてなるため、一般的に対数微分を求め、次いで、極値点を求めます。

  通常、ちょうど損失のそれぞれの対数を取る損失関数の損失やデータのそれぞれは、まで追加することができます。負の符号は、最尤推定は、最小の損失に対応することを意味します。

8.categorical_crossentropy

マルチ対数損失関数の分類、および分類ソフトマックス対応する損失関数、李前出。

  チップ:この損失関数とは、マルチ分類のためのバイナリ、ソフトマックスの番号、シグモイド主にソフトマックス、シグモイド差の損失関数のクラスに属します。

一つの説明:
ソフトマックス式:

ロジスティック回帰目的関数を行うために最大尤度に基づいています。それは確率OYを予測するため、xがクラスyに属していることを想定している、我々はOYを最大化する必要があります。

ステップ2 softmax_loss含むを計算します。

(1)ソフトマックス正規化計算された確率の
\ [X_I-X_I = MAX(X_1、...、x_nに関する)\]
\ [P_I = E \ {FRAC X_I ^ {} {} \ sum_ J = {1} ^ { n}は、E ^ {X - jが}} \]

参考:

[] Https://www.cnblogs.com/smuxiaolei/p/8662177.html
[公式ドキュメント] https://keras.io/zh/losses/

おすすめ

転載: www.cnblogs.com/wangjs-jacky/p/11520292.html