まず、損失関数の概念
損失関数:実際のラベルとモデル出力の違いを測定します
- 損失関数の機能喪失:損失= F(Y ^、Y)
- 関数コスト関数コスト:。コスト= 1 / [シグマF N(Y ^、Y)
- 関数目的での目的関数:OBJの=コスト+正則
第二に、クロスエントロピー損失関数
三、NLL \ BCE \ BCEWithLogits損失。
5、nn.L1Loss
機能:計算対象との入力の差の絶対値
6、nn.MSELoss
機能:計算対象との入力の差広場
主なパラメータ:削減:計算モード、なし/合計/平均ため
なし:要素による計算要素
合計:すべての要素の合計は、スカラーを返します。
意味:加重平均、リターンスカラー
7、nn.SmoothL1Loss
8、nn.PoissonNULLLoss
機能:負のポアソン対数尤度関数の損失
主なパラメータ:log_input:入力が対数であるか否かを、式を計算することを決めました
フル:すべての損失を計算し、デフォルトはFalseです
EPS:補正項、ログを避けるために(入力)ナンです
9、nn.KLDivLoss
関数:計算KLD(発散)、KL発散、相対エントロピー
注:このようなnn.logsoftmaxなどによって予め計算入力対数確率、()
主なパラメータ:
削減:なし/合計/平均/ batchmean
batchmean-バッチサイズ寸法平均
10、nn.MarginRankingLoss
機能:タスクをソートするために、2つのベクトル間の類似度を計算
特別注:この方法は、データの2つのセットのリターンロス行列N * Nの間の差分を算出します
主なパラメータ:
マージン:境界値、X1とX2との差分値
削減:計算モード、なし/合計/平均ため
11、nn.MultiLabelSoftMarginLoss
12、nn.SoftMarginLoss
機能:計算のバイナリロジスティック損失
主なパラメータ:削減
13、nn.MultiLabelSoftMarginLoss
機能:SoftMarginLossマルチラベルバージョン
主なパラメータ:体重:他の損失セットの権限のすべての種類
削減:
14、nn.MultiMarginLoss
機能:マルチ倍損失の計算分類
主なパラメータ:P:1又はあるいは2
重量:
マージン:境界値
削減
15、nn.TripletMarginLoss
機能:計算トリプル損失、一般的に顔認証で使用されます
主なパラメータ:Pマージンの減少
16 nn.HingeEmbeddingLoss
機能:2つの入力の類似度を計算し、一般に埋め込み非線形半教師付き学習のために使用
特別な注意:入力xすべき2つの入力の差の絶対値
主なパラメータ:マージンの減少
17、nn.CosineEmbeddingLoss
機能:コサイン類似度は、2つの入力の類似度を用いて計算し
主なパラメータ:マージンの減少
18、nn.CTCLoss
機能:計算CTC損失は、分類カテゴリタイミングデータConnctionist時間的分類を解決します
主なパラメータ:空白:空白のラベル
zero_infinity:無限0に設定された値又は勾配
削減