損失関数Keras深い学習フレームワーク

A.使用機能の喪失

  [また、最適化の目的関数やスコアリング関数として知られている]損失関数は、コンパイルモデルのために必要な2つのパラメータの一つです。

  model.compile(損失= 'mean_squared_error'、オプティマイザ= 'SGD')

  若しくは

  kerasインポート損失から

  model.compile(損失= losses.mean_squared_error、オプティマイザ= 'SGD')

  あなたは、現在の損失関数名やTensorFlow / Theanoシグナム関数を渡すことができます。各データ点は、スカラーを返す関数として二つのパラメータの低いシンボルを有します。

  1.y_true

    実際のラベル、TensorFlow / Theanoテンソル。

  2.y_pred

    予測値は、/ TheanoテンソルTensorFlow、同じ形状およびy_trueあります。

  実際の最適化の目標は、すべての出力配列のデータ点の平均です。

II。利用可能な損失関数

  1.mean_squared_error(y_true、y_pred)MSE、平均二乗誤差}

    式は次のとおりです。

    

    出典:

    

  2.mean_absolute_error(y_true、y_pred)MAE、平均絶対誤差]

    MAEは、私たちが絵を見たとき、私たちはまず、これらのカラフルな、目を引く内容に焦点を当てる、例えば、重要ないわゆる目標、重要な目標検出を言うことはできません述べました。私たちが最初に同時に全て見てのトランスフォーマーオプティマスプライムを見ることになるように、これは絶対にCビットです。我々が定義するように、トランスフォーマーオプティマスプライムは重要な目標です。

    有意ターゲット検出を算出する評価指標は、検出アルゴリズムは、次のように計算される平均絶対誤差を、使用しています。

    

    出典:

    

  3.mean_absolute_percentage_error [MAPE、平均絶対パーセント誤差]

    同様に、平均絶対誤差、予測​​された結果と真値の変化率との平均絶対パーセント誤差。それは次のように計算されます。

    

    出典:

    

    備考:

    1.clip

      要素による要素の数は、ボーダー施行の数に指定された範囲を超えてしまいます。

    2.epsilon

      固定パラメータは、デフォルト値1 * E-7。

  [4.mean_squared_logarithmic_error MSLE、対数平均二乗誤差}

    対数データに平均二乗誤差を計算する前に、再計算。

    式は次のとおりです。

    

     出典:

    

  5.squared_hinage [使用しません]

    式は次のとおりです。

    

    出典:

    

  6.hinage [使用しません]

    式は次のとおりです。

    

    出典:

    

  7.categorical_hinge [使用しません]

    出典:

    

  8.logcosh [使用しません]

    双曲線余弦の対数の予測誤差。結果はほぼ同じで平均二乗誤差が、強く時折狂気間違った予測の影響を受けません。

    出典:

    

  9.categorical_crossentropy [使用しません]

    categorical_crossentropy損失を使用する場合、ターゲットは、分類されるべきである[フォーマットタイプ10場合、すなわち、各サンプルの目標値が10次元ベクトルであるべきで、このベクターは1に加えて、インデックスの種類を表し、その他は} 0であります。整数目標分類対象を変換するには、ユーティリティ関数はkeras to_categoricalを使用することができます。

    keras.utils.np_utilsからto_categoricalインポート

    categorical_labels = to_categorical(int_labels、num_classes =なし)

    出典:

    

   10.sparse_categorical_crossentropy [使用しません]

    出典:

    

   11.binary_crossentropy [使用しません]

    出典:

    

  12.kullback_leibler_divergence [使用しません]

    出典:

    

  13.poisson [使用しません]

    式は次のとおりです。

    

     出典:

    

  14.cosine_proximity [使用しません]

    式は次のとおりです。

    

    出典:

    

III。損失関数の他のタイプ

  1.ctc_batch_cost [高性能]

    出典:

    

 

    各バッチ要素上で実行されているアルゴリズムCTC損失。

    パラメータ:

    1.y_true

      これは、タグテンソルの真の値が含まれています。(サンプル、max_string_length)を入力します。

    2.y_pred

      包含预测值或softmax输出的张量。类型(samples, time_steps, num_categories)。

    3.input_length

      张量(samples, 1),包含y_pred中每个批处理项的序列长度。

    4.label_length

      张量(samples, 1), 包含y_true中每个批处理项的序列长度。

    返回shape为(samples, 1)的张量,包含每一个元素的CTC损失。

おすすめ

転載: www.cnblogs.com/yszd/p/12362461.html