アイ・PyTorch第二期のトレーニングキャンプの深--- 9、機能14でPyTorch損失

まず、損失関数の概念

損失関数:実際のラベルとモデル出力の違いを測定します

  • 損失関数の機能喪失:損失= F(Y ^、Y)
  • 関数コスト関数コスト:。コスト= 1 / [シグマF N(Y ^、Y)
  • 関数目的での目的関数:OBJの=コスト+正則

第二に、クロスエントロピー損失関数

三、NLL \ BCE \ BCEWithLogits損失。

5、nn.L1Loss

機能:計算対象との入力の差の絶対値

6、nn.MSELoss

機能:計算対象との入力の差広場

主なパラメータ:削減:計算モード、なし/合計/平均ため

なし:要素による計算要素

合計:すべての要素の合計は、スカラーを返します。

意味:加重平均、リターンスカラー

 

7、nn.SmoothL1Loss

 

8、nn.PoissonNULLLoss

機能:負のポアソン対数尤度関数の損失

主なパラメータ:log_input:入力が対数であるか否かを、式を計算することを決めました

フル:すべての損失を計算し、デフォルトはFalseです

EPS:補正項、ログを避けるために(入力)ナンです

 

9、nn.KLDivLoss

関数:計算KLD(発散)、KL発散、相対エントロピー

注:このようなnn.logsoftmaxなどによって予め計算入力対数確率、()

主なパラメータ:

削減:なし/合計/平均/ batchmean

batchmean-バッチサイズ寸法平均

 

10、nn.MarginRankingLoss

機能:タスクをソートするために、2つのベクトル間の類似度を計算

特別注:この方法は、データの2つのセットのリターンロス行列N * Nの間の差分を算出します

主なパラメータ:

マージン:境界値、X1とX2との差分値

削減:計算モード、なし/合計/平均ため

 

11、nn.MultiLabelSoftMarginLoss

12、nn.SoftMarginLoss

機能:計算のバイナリロジスティック損失

主なパラメータ:削減

13、nn.MultiLabelSoftMarginLoss

機能:SoftMarginLossマルチラベルバージョン

主なパラメータ:体重:他の損失セットの権限のすべての種類

削減:

14、nn.MultiMarginLoss

機能:マルチ倍損失の計算分類

主なパラメータ:P:1又はあるいは2

重量:

マージン:境界値

削減

15、nn.TripletMarginLoss

機能:計算トリプル損失、一般的に顔認証で使用されます

主なパラメータ:Pマージンの減少

16 nn.HingeEmbeddingLoss

機能:2つの入力の類似度を計算し、一般に埋め込み非線形半教師付き学習のために使用

特別な注意:入力xすべき2つの入力の差の絶対値

主なパラメータ:マージンの減少

17、nn.CosineEmbeddingLoss

機能:コサイン類似度は、2つの入力の類似度を用いて計算し

主なパラメータ:マージンの減少

18、nn.CTCLoss

機能:計算CTC損失は、分類カテゴリタイミングデータConnctionist時間的分類を解決します

主なパラメータ:空白:空白のラベル

zero_infinity:無限0に設定された値又は勾配

削減

おすすめ

転載: www.cnblogs.com/cola-1998/p/11818380.html