ニューラルネットワーク構造の概要

免責事項:この記事はブロガーオリジナル記事です、続くBY-SAのCC 4.0を著作権契約、複製、元のソースのリンクと、この文を添付してください。
このリンク: https://blog.csdn.net/qq_16130715/article/details/88984555

ニューラルネットワークアーキテクチャの一部のこのコレクションは、いくつかの一般的に使用されるモデルが含まれています。

LeNet5

LeNet5
1. INPUT
  入力画像均一な32 * 32に正規化されます。
2.C1畳み込み層
  を介して(1 * 5 * 5)6畳み込みカーネルは、ストライド= 1は、28 * 28 * 6 featuremap生成されます*。
3.S2細胞層
  (2 * 2)サンプリング核、ストライド= 2は、featuremap生成される14 * 14 * 6を介し。
4.C3畳み込み層
  を介して(5 * 5 * 6)畳み込みカーネルは、ストライド= 1、* 10 * 16 10 featuremap生成される* 16。
5.S4細胞層
  (2 * 2)サンプリング核、ストライド= 2は、featuremap生成される16 * 5 * 5を介し。
6.C5畳み込み層
  120(* 5 16 * 5)を介して、*は畳み込みカーネル、ストライド= 1は、120 * 1 * 1 featuremap生成されます。
7.F6層に完全に接続された
  入力* 1 * 120、1 * 1 *出力は、120 * 84参謀の数84です。
完全にそれが層を接続8.Output。
  入力1 * 1 * 84 * 1 * 1出力は10で、クラスの数のための一般的なスタッフの数は、84 * 10.10分類です。

AlexNet

AlexNet
1. INPUT
  入力画像227 * 227 * 3です。
2.Conv1
  畳み込みカーネル、ストライド= 4、(227から11)*(3 * 11 11 *)96を介し / 4 + 1 = 55は、 55 * 55 * 96をfeaturemap生成します。
3.Pool1
  コア3 * 3をプールした後、ストライド= 2、(55-3) / 2 + 1 = 27、 27 * 96 27 featuremap生成します。
4.Norm1
  local_size = 5、* 96 27 * 27 featuremap生成します。
5.Conv2
  パッド= 2、基= 2畳み込みカーネル(* 5 * 96)* 256を介して 、(27 + 2 * 2-5)/ 1 + 1 = 27、 27 * 256 27 featuremap発生* 。
6.Pool2は、
  コア3 * 3、ストライド= 2、(27-3)プーリング後 / 2 + 1 = 13、 13 * 13 * 256 featuremap生成します。
7.Norm2
  local_size = 5、* 256 * 13 13 featuremap生成します。
8.Conv3
  (3 * 3 * 256)384コンボリューションカーネルは、パッド= 1、(13 + *スルー * 2-3 1)/ 1 + 1 = 13、 featuremap生成する13 * 13 * 384。
9.Conv4
  (3 * 3 * 384)384コンボリューションカーネルは、パッド= 1、(13 + *スルー * 2-3 1)/ 1 + 1 = 13、 featuremap生成する13 * 13 * 384。
10.Conv5
  (* 3 3 * 384)* 256コンボリューションカーネルの後、パッド= 1、(13 + 1 * 2-3)/ 1 + 1 = 13は、 13 * 13 * 256 featuremap生成します。
11.Pool5
  (3 * 3)核プール、2 =ストライドを介して、(13-3) = 6/2 + 1は、 6 * 6 * 256 featuremap生成されます。
12.Fc6の
  入力(6 * 6 * 256)* 4096が完全に接続され、featuremap 1 * 1 * 4096を生成します。
13.Dropout6
  半分トレーニング時間の出力ノードの半分が失われるので、いくつかの隠れ層の出力ニューロンの確率は、0になるように、BPは、以下Droupout共感これらのノードを更新する時ではありません。
14.Fc7の
  入力1 * 1 * 4096、* 1 * 1出力は4096で、数4096 * 4096参謀。
15.Dropout7は
  1 * 1 * 4096 featuremapを生成します。
16.Fc8の
  入力1 * * 4096 1、出力千、数4096×1000参謀。

要約:

5層と完全に接続された畳み込み層3を含む、1ネットワークよりLeNet深いです。
2.使用relu活性化機能は、ネットワーク内のときに暗く見える拡散勾配シグモイドの問題を解決するために迅速に収束します。
3.オーバーフィットを防止するために、ドロップアウト層を追加します。
4.モデルの汎化能力を高める、神経フィードバック小ニューロン大きな増幅反応を阻害し、局所神経活動の競争メカニズムを作成し、LRN層を用いて正規化。
内で回転5.作物は、データ拡張、モデルの拡張汎化能力を行います。予測画像は、5つの四隅を抽出するプラス中間位置と10枚の画像の全体の横方向の傾きは、基本的なスキルゲームを使用してブラシの背後にある方法を、平均化した使用している場合。
革新的なトレーニング画像を別々に二分割した後、完全に接続された層で一緒に結合さAlexnet 6トレーニングブロックは、次にGPUは、それほど強くありません。
7.全体的なデータパラメータ約240M。

VGG

VGG

1. INPUT層
  入力画像224 * 224 * 3です。
2.CONV3-64
  (3 * 3 * 3)*は畳み込みカーネル64 * 64 224 * 224をfeaturemap生成スルー。
3.CONV3-64
  〜(3 * 3 * 64)*は畳み込みカーネル64は、224 * 224 * 64をfeaturemap生成します。
4.Maxプール
  (2×2)最大プール核を介して、* 112 * 64 112をfeaturemap生成します。
5.CONV3-128。
  (64 * 3 * 3)*は畳み込みカーネル128 * 112 * 128 112 featuremap生成した後。
6.CONV3-128
   (3 * 3 * 128)を介して、128のコンボリューションが112 * 112 * 128を生成featuremap *。
7.Maxプール
  (2×2)maxpoolビアは、* 56 * 128 56 featuremap生成します。
8.CONV3-256
  (3 * 3 * 128)を介して、* 256、畳み込みカーネル、56 * 56 * 256をfeaturemap生成します。
9.CONV3-256
  (3 * 3 * 256)を介して、* 256、畳み込みカーネル、56 * 56 * 256をfeaturemap生成します。
10.CONV3-256
  (3 * 3 * 256)を介して、* 256、畳み込みカーネル、56 * 56 * 256をfeaturemap生成します。
11.Maxプール
  (2×2)maxpoolビアは、* 28 * 256 28 featuremap生成します。
12.CONV3-512
  (3 * 3 * 256)512コンボリューションカーネルがfeaturemap生成する* 28 * 28 * 512を通ります。
13.CONV3-512
  (3 * 3 * 512)512コンボリューションカーネルがfeaturemap生成する* 28 * 28 * 512を通ります。
14.CONV3-512
  (3 * 3 * 512)512コンボリューションカーネルがfeaturemap生成する* 28 * 28 * 512を通ります。
15.Maxプール
  (2×2)maxpoolを介して、* 14 * 512 14 featuremap生成します。
16.CONV3-512
  (3 * 3 * 512)を介して、* 512、畳み込みカーネル、14 * 14 * 512をfeaturemap生成します。
17.CONV3-512
  (3 * 3 * 512)を介して、* 512、畳み込みカーネル、14 * 14 * 512をfeaturemap生成します。
18.CONV3-512
  (3 * 3 * 512)を介して、* 512、畳み込みカーネル、14 * 14 * 512をfeaturemap生成します。
19.Maxプール
  2×2の畳み込み7 * 7 * 512 featuremap生成した後。
20.FC-4096の
  入力7 * 512 * 7、1 * 1 *出力は4096で、参謀512 * 7 * 7 * 4096の数。
21.FC-4096の
  入力1 * 4096 * 1、* 1つの* 1出力は4096で、数4096 * 4096参謀。
22.FC-1000
  1 * 1 *入力4096、出力1000年、数4096×1000参謀。

要約:

1.パラメータは、約550Mが含まれています。
2.すべての3 * 3畳み込みカーネルとコア2 * 2の最大のプール。
図3は、畳み込みニューラルネットワークの構造を簡素化します。

おすすめ

転載: blog.csdn.net/qq_16130715/article/details/88984555