コンピュータービジョンクラシックペーパーリーディング--- AlexNetペーパーリーディングノート

目次

序文:

以下は彼から派生したアルゴリズムです

畳み込み層の計算

プーリング層

ニューラルネットワーク構築

ニューラルネットワーク活性化関数を使用する理由

ソフトマックス正規化

ローカル応答の正規化

LNNローカル応答正規化

脱落

参照:


序文:

この論文は12年間の論文ですが、引用は最大6wであり、コンピュータビジョンの研究の要です。

だから読む必要があります

以下は彼から派生したアルゴリズムです

畳み込み層の計算

気分ページ

プーリング層

(プール、ダウンサンプリング)

過剰適合を防ぐことができます

 

ニューラルネットワーク構築

ニューラルネットワークがアクティベーション関数を使用するのはなぜですか?

ので活性化関数が非線形であるので、それは正確である非線形活性化関数は、ニューラルネットワークモデルに非線形性を導入し、そしてそれは、非線形分類問題を解決することができます。

ただし、Sigmoidやtanhなどの従来の飽和関数と不飽和活性化関数は、勾配の消失の問題を解決できます。

次の図は、2つのニューロンを介してニューラルネットワークの出力を完了します

ソフトマックス正規化

この論文には興味深い場所があります

 

ローカル応答の正規化

各値は正規化され、ローカルニューロンを効果的に抑制できます

具体例を挙げてください

LNNローカル応答正規化

効果を達成できます:

近くのアクティベーションを禁止する

ただし、LRNレイヤーは破棄され、Xは使用されません

データ拡張により、過剰適合メソッドを効果的に防止および削減できます

脱落

ランダムにチョークされ、すべてのドロップアウトレイヤーが0.5から1に置き換えられました

必要でない場合は、エンティティを増やしないでください---カミソリ原理

参照:

  • 駅B
  • AlexNetペーパー

おすすめ

転載: blog.csdn.net/qq_37457202/article/details/107717876