CNN - 畳み込みニューラルネットワーク

CNN - 畳み込みニューラルネットワーク

CNN - 自分自身を理解するために畳み込みニューラルネットワークは、何かが間違っている、私を修正してください。

チューチュー連絡先(コンボリューションカーネル)は、以下の質問があります。

  1. それはなぜ必要がありますか?畳み込みニューラルネットワーク、各隠れ層のノードは、このように大幅に重みをトレーニングするためのパラメータの必要性の値を小さくする、ローカライズされた十分に小さなピクセルの画像のみに接続されています。
  2. どのような存在意味ですか?
  3. なぜ、特徴を抽出することができますか?
  4. これが見つかりました。抽出する方法の方法ですか?

畳み込み式:
- + F トン グラム バツ τ ) d τ \のInt _ { - \ inftyの} ^ {+ \ inftyのF}(\)G(x軸\)\ {\ RM D} \

リファレンス式:

  1. 使用する\int_积分下限^积分上限 \, {被积表达式}ポイントを入力するには 2 3 x 2 d x \ INT_ {2} ^ {3} {X ^ 2} \ {\ RM D} X
  2. 入力τ[\τは入力、マトリックスであります



人気の畳み込み演算を理解します:

畳み込み(コンボリューション)とは何ですか?:説明するのCNN入門
它的物理意义大概可以理解为:系统某一时刻的输出是由多个输入共同作用(叠加)的结果。私は記事を読んフレーズは、複数のn個のスペードで読み取ることができます。


現時点では唯一の予備的な理解、なぜ特徴を抽出することができます

示されるように、
元の画像:
1 1 1 0 0 0 1 1 1 0 0 0 1 1 1 0 0 1 1 0 0 1 1 0 0 開始\ {行列} 1・1・1・0 0 \\ 0・1・1・1・0 \\ 0 0 1・1・1 \\ 0 0 1・1・0 \\ 0・1・1・0 0 \端{行列}
畳み込みカーネル:
1 0 1 0 1 0 1 0 1 \ {行列} 1&0&1を開始\\ 0&1&0 \\ 1&0&1 \端{行列}

元の5x5の、3x3の畳み込みカーネル、得られた3×3の特徴
のみトップ特性1x1の、結果として3×3領域、すなわち元の3x3、3x3の畳み込みカーネルを残したと仮定4
、3×3の唯一の左下隅の領域を撮影するとき、3x3の、すなわち元コンボリューションカーネルの3x3、1x1の得られた特徴2
得られた特徴領域サイズ=(5-3 + 1)*( 5-3 + 1)==>(3×3)を
ここに画像を挿入説明

図2は、上記からのものである:CNNの初心者-このエントリ


それはなぜ必要がありますか?

  1. 畳み込みニューラルネットワーク、各隠れ層のノードは、十分に小さい部分の画像の画素のみに接続されています。
  2. 畳み込み演算することで、部分的に全体のコネクタに接続します

これは、その理由とは?



存在意義:

最小限のコストでは、ニューラルネットワークは、最高の正解率を取得します
  • 卷积层 特徴抽出を担当。
  • 卷积层 特徴選択を担当。
  • 全连接层 分類を担当。

ここに画像を挿入説明
出典:CNNは、説明しましょう:解体畳み込みニューラルネットワークを理解するためにどのように、サトウキビの最後にテキストの例は面白い良いを食べて、ハハハッハッハ。




プーリング:

ここに画像を挿入説明
出典:一部のコンボリューション深研究の概要とプール

最後に、プールのコンボリューションの違いを追加します。

彼らは将一个区域中的信息压缩成一个值,完成信息的抽象

コンボリューション:

  • ふるいのような畳み込み、のみ部スクリーニングの条件(より大きい、より修飾活性値)を満たすために
  • これは、特定の機能を保持します

プーリング:

  • 情報の抽出、計算量を削減
  • 20×20 10×10は2×2を取得するためにプールしました
  • デモの最も簡単なプール

1 1 1 0 0 1 1 1 0 0 1 1 0 1 1 0 \ {行列} 1・1・1・0 \\ 0・1・1・1 \\ 0 0 1&1 \\ 0・1・1・0を開始\端{行列} 右下隅要素、取得した2×2の情報方、プールされた2×2、。
1 1 1 0 \ {行列} 1&1を開始\\ 1&0 \端{行列}

公開された85元の記事 ウォン称賛27 ビュー160 000 +

おすすめ

転載: blog.csdn.net/qq_22038327/article/details/103999582