[機械]は、基本的なクロスエントロピー(クロスエントロピー)損失関数を学ぶ凸行うのですか?

我々はこの問題を持っているなぜ、なぜならときロジスティック、「統計的機械学習の」負の対数尤度関数が凸であることの書籍、および尤度関数のロジスティック回帰負の対数(負の対数尤度)を学習に回帰同じ形状を有し、クロスエントロピ関数(クロスエントロピー)。

結論凸ロジスティック回帰は、クロスエントロピーが凸状である場合、最初に与えられたが、多層ニューラルネットワーク、クロスエントロピーではありません。

場合ロジスティック回帰、クロスエントロピーは凸状です。

なぜ、誤差関数は、ロジスティック回帰凸に最小化されますか? - ディーパックロイChittajallu

多層ニューラルネットワーク(MLP)、クロスエントロピー凸ありません。

ニューラルネットワークのコスト関数は、非凸のですか? - クロス検証済み

クロスエントロピー損失関数:( \(\ハット{Y} \) 予測値である\(Y \)真値)

\ [ - と\ログ\帽子{Y} - (1-Y)\ログ(1- \帽子{と})\]

直感

追加として、または凸関数によって説明、ロジスティック回帰、2つの凸関数の証明を簡単にする点である\(Yが\) 0または1であるが、それはこのケースを証明するべきである\( - \ログ\帽子{ Y} \) そして\ - (\ログ(1- \ハット{Y})\) で\(W \)は半正定値ヘッセ行列が証明されている凸関数です。上記のリンクを証明見えます。

MLPながら、直感的な説明は、層は、次に交換ニューロン、最適解が存在する場合を示しており、変化しないであろう得られた最終出力値の2つのニューロンの重みを交換するために、ニューラルネットワークの重みの隠れ層に与えられています重量た後、解決策はまだ最善であるので、この時間2の最適解があるが、それは凸関数ではありません。

なぜ、ロジスティック回帰勾配降下法によって解決され、それが直接の解析解を求めていないのですか?

順序交差エントロピー一次導関数は0であり、あなたが重量を見つけることができません\(W \)を、すなわち書き込まれていない、左側に記載さ(W =式\)\、この形式の、それが等式制約であるがしかし、解析解はまだ直接求めることは非常に困難です。したがって、勾配降下法、ニュートン法、ロジスティック回帰を解くために使用される準ニュートン法。

リファレンス

ロジスティック回帰凸である理由で誤差関数を最小化- ?ディーパックロイChittajalluの
ニューラルネットワークのコスト関数が非凸で- ?クロス検証済み
ロジスティック回帰分析ソリューションは、それを持つことができますか?ほとんど知られている- - ZZZZZZZZ答え

おすすめ

転載: www.cnblogs.com/wuliytTaotao/p/11967620.html