我々はこの問題を持っているなぜ、なぜならときロジスティック、「統計的機械学習の」負の対数尤度関数が凸であることの書籍、および尤度関数のロジスティック回帰負の対数(負の対数尤度)を学習に回帰同じ形状を有し、クロスエントロピ関数(クロスエントロピー)。
結論凸ロジスティック回帰は、クロスエントロピーが凸状である場合、最初に与えられたが、多層ニューラルネットワーク、クロスエントロピーではありません。
場合ロジスティック回帰、クロスエントロピーは凸状です。
なぜ、誤差関数は、ロジスティック回帰凸に最小化されますか? - ディーパックロイChittajallu
多層ニューラルネットワーク(MLP)、クロスエントロピー凸ありません。
ニューラルネットワークのコスト関数は、非凸のですか? - クロス検証済み
クロスエントロピー損失関数:( \(\ハット{Y} \) 、予測値である\(Y \)真値)
\ [ - と\ログ\帽子{Y} - (1-Y)\ログ(1- \帽子{と})\]
直感
追加として、または凸関数によって説明、ロジスティック回帰、2つの凸関数の証明を簡単にする点である\(Yが\) 0または1であるが、それはこのケースを証明するべきである\( - \ログ\帽子{ Y} \) そして\ - (\ログ(1- \ハット{Y})\) で\(W \)は半正定値ヘッセ行列が証明されている凸関数です。上記のリンクを証明見えます。
MLPながら、直感的な説明は、層は、次に交換ニューロン、最適解が存在する場合を示しており、変化しないであろう得られた最終出力値の2つのニューロンの重みを交換するために、ニューラルネットワークの重みの隠れ層に与えられています重量た後、解決策はまだ最善であるので、この時間2の最適解があるが、それは凸関数ではありません。
なぜ、ロジスティック回帰勾配降下法によって解決され、それが直接の解析解を求めていないのですか?
順序交差エントロピー一次導関数は0であり、あなたが重量を見つけることができません\(W \)を、すなわち書き込まれていない、左側に記載さ(W =式\)\、この形式の、それが等式制約であるがしかし、解析解はまだ直接求めることは非常に困難です。したがって、勾配降下法、ニュートン法、ロジスティック回帰を解くために使用される準ニュートン法。
リファレンス
ロジスティック回帰凸である理由で誤差関数を最小化- ?ディーパックロイChittajalluの
ニューラルネットワークのコスト関数が非凸で- ?クロス検証済み
ロジスティック回帰分析ソリューションは、それを持つことができますか?ほとんど知られている- - ZZZZZZZZ答え