目次
序文:
この論文は12年間の論文ですが、引用は最大6wであり、コンピュータビジョンの研究の要です。
だから読む必要があります
以下は彼から派生したアルゴリズムです
畳み込み層の計算
気分ページ
プーリング層
(プール、ダウンサンプリング)
過剰適合を防ぐことができます
ニューラルネットワーク構築
ニューラルネットワークがアクティベーション関数を使用するのはなぜですか?
ので活性化関数が非線形であるので、それは正確である非線形活性化関数は、ニューラルネットワークモデルに非線形性を導入し、そしてそれは、非線形分類問題を解決することができます。
ただし、Sigmoidやtanhなどの従来の飽和関数と不飽和活性化関数は、勾配の消失の問題を解決できます。
次の図は、2つのニューロンを介してニューラルネットワークの出力を完了します
ソフトマックス正規化
この論文には興味深い場所があります
ローカル応答の正規化
各値は正規化され、ローカルニューロンを効果的に抑制できます
具体例を挙げてください
LNNローカル応答正規化
効果を達成できます:
近くのアクティベーションを禁止する
ただし、LRNレイヤーは破棄され、Xは使用されません
データ拡張により、過剰適合メソッドを効果的に防止および削減できます
脱落
ランダムにチョークされ、すべてのドロップアウトレイヤーが0.5から1に置き換えられました
必要でない場合は、エンティティを増やしないでください---カミソリの原理
参照:
- 駅B
- AlexNetペーパー