ホワイトもエントリーの深さの研究

畳み込みニューラルネットワークは、近年の礎石である、深い学習は、コンピュータビジョンの分野でブレークスルーを達成することができます。それは徐々に広く、このような自然言語処理、音声認識や推薦システムと他のフィールドとして、他の人に使用されてきました。

I.はじめに畳み込みニューラルネットワーク

畳み込みニューラルネットワーク構造:畳み込み層の細胞層、完全に接続されている層。最後の層ように完全接続層と呼ばれる、典型的には、各ニューロンは、上位層の全てのニューロンに接続されている、完全に接続されたネットワーク層です。いくつかの層は、層をプールした後、完全に接続された層とプールした畳み込み層、およびプールされた層畳み込み対応層、フロント層と畳み込みされる前に。畳み込み層と細胞層は、本質的に元のエフェクトデータ抽象機能は、これらの層の使用は、ラベルが付いていないサンプルを分類するために完全に接続された抽象的特徴のサンプルデータです。

コンボリューション細胞層は、畳み込みニューラルネットワークのコア層です。

畳み込み層は:特徴マップの複数から構成され、入力データ照合畳み込み畳み込み得られた特徴マップは、畳み込みコアは、特定の機能のために非常に敏感なプローブとして見ることができます。入力データのコンボリューションコンボリューション処理を確認し、実際に機能の入力データを検索しようとするプロセスです。図記録機能は、元の畳み込みカーネルデータ入力部で異なる程度(よりフィット機能、活性化の高い度合い)を活性化します。各コンボリューションの一つの特定の特徴を認識する責任核、一組を生成する畳み込みは、一般的に畳み込み、複数のこれに対応する特性グラフ畳み込み層を備えていなければなりません。

値は細胞層は、図面の新機能の組み合わせた活性値を活性値として図面における特徴の数として入力データのサイズを低減することです。そのような組み合わせ最大、及びサービスに応じて設定することにより、平均合成ランダム合成方法として組み合わせる多くの方法。

第二に、畳み込み層

コンボリューションカーネルの幅と高さ、及び畳み込みカーネル人工事前に定義された数。継続的な研修を通じて敏感な、ランダムな初期化を特長とし、徐々に完成何畳み込みチェック。コンボリューションカーネルは、必要なトレーニングの主要な部分である入力データの重要な特徴にそれを敏感にすることです、ニューラルネットワークを最大限に活用するためにコンボリューションカーネルの順序、接続層を抽出した後、最終的に全体のシーケンスを手助けするような、より高度な機能カテゴリより良い判断。

識別は、畳み込みカーネルの畳み込みカーネルであろう後続の畳み込み層列の前に、同定することができる機能の複数を使用して近い入力に緩やかなプロセス、コンボリューションカーネル層、畳み込みカーネルベースでありますさらに抽象化は、より高度な機能を得るための機能を同定しました。例えば、画像認識猫が行う、認識することができ畳み込み層の畳み込みカーネルは、単になどのエッジの一部であってもよく、畳み込みカーネルの出力層に近い、目、口、その他の高度な機能を特定できる可能性があります。

従来のニューラルネットワーククラッシュ正面に対して畳み込みニューラルネットワーク、一方では、入力形状保持層畳み込みは、ピクセルの画像の相関は、2つの有効な識別の幅方向に高くすることができ、一方、畳み込み層ウィンドウをスライドさせることで異なる計算と畳み込みカーネルの同じ位置に入ることになるパラメータが大きすぎる避けるために、繰り返されます。「ローカル知覚野生」及び「重量共有」、大幅にネットワーク内の接続の数を減らす、即ちにより、必要なトレーニングパラメータの数を減少させる、大幅に計算に必要なモデルのトレーニングの量を減少させます。

生入力データが1000×1000解像度の画像である場合、隠れニューロンの同じ番号は、入力画像の画素の数、および入力層と隠れ層、すなわち、隠れ層の各々の間の全接続の方法が想定されている想像しますニューロン10が存在している電源接続される入力層と中間層12との間に、入力画像の各画素に接続されている、非常に多くのパラメータが訓練される必要があります。また、中間層かの層と下部カイン間の全接続を介して、パラメータの数が指数関数的に増加します。

畳み込みニューラルネットワークは、入力されたデータは、フル機能で識別されて達成するために、次の隠れ層に接続されていませんが、はるかに小さい畳み込みカーネルによって達成されます。識別された特徴は、典型的には、全入力データの小さな部分のみを要する、わずかな部分画像との各畳み込みカーネルは、「ローカル野生知覚される」正方形10として、接続することができます。 。入力層が直接6乗に同一の隠れ層ニューロン10の存在に接続されていることを完全に接続されたローカル感知フィールドへの接続モードは、入力層の各隠れ層のニューロンの接続数が6〜10倍であるため、想定正方形側10の減少は、電源コネクタ10の総数が大幅パラメータの量を減らす、電源に12から8 10に還元される訓練する必要があります。

コンボリューション・カーネルを使用することができる特徴認識/検出器を定義、及び特性は、画像データ入力/認識に元の位置に現れる影響を及ぼさないであろう、それ自体同一の任意の部分の同じ入力データ特性のことを特徴としますトレーニングの必要性から、パラメータの数ができるように、10上記の畳み込みカーネル、6番目の隠れ層ニューロンを特定する、独自の独立したパラメータを持っている必要はありませんが、機能は、同じパラメータで識別することができます10〜10平方フィート減の8乗は、これが「正しい値を共有」です。

畳み込み、畳み込みカーネルは、元のカバーとして見ることができる場合、左上から、継続する左から出発して、一つの画素右下、畳み込みフィニッシュライン、全体のコンボリューションカーネルに1つの画素移動ムーブメント。畳み込みカーネルによってカバーされる領域内に、元の畳み込みパラメータが乗算されている場所を確認する必要があり、その後、すべてがそれによって活性値、前記上に位置し得、追加しました。それは次のように計算されます。

0×0 + 1×1 + 3×2 + 4×3 = 19、

1×0 + 2×1 + 4×2 + 5×3 = 25、

3×0 + 4×1 + 6×2 + 7×3 = 37、

4×0 + 5×1 + 7×2 + 8×3 = 43。

 

サンプル計算

 

マルチチャンネル入力と出力もあります。複数のチャネルを含む入力データは、我々は、同一のチャンネル番号畳み込みカーネル入力データと入力チャネルの数を構築する必要がある場合、複数のチャネルを含む操作入力データを行うことが可能です。それは次のように計算されます。

(1×1 + 2×2 + 4×3 + 5×4)+(0×0 + 1×1 + 3×2 + 4×3)= 56。

サンプル計算

第三に、プーリング層

簡単プロセスをプール、入力セルは、コンボリューション処理の特性図であり、プールは、それが図の必要な特徴である場合の領域の同数に畳み込まれ、この領域で活性値を平均、プールの数の同じ値/最大値と図の新規な特徴などのような、そのサイズが対応はるかに低減されます。

同卷积层一样,池化层每次对输入数据的一个固定形状窗口(又称池化窗口)中的元素计算输出。不同于卷积层里计算输入和核的互相关性,池化层直接计算池化窗口内元素的最大值或者平均值。该运算也分别叫做最大池化或平均池化。在二维最大池化中,池化窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动。当池化窗口滑动到某一位置时,窗口中的输入子数组的最大值即输出数组中相应位置的元素。

 

池化窗口形状为2 × 2的最大池化

上图展示了池化窗口形状为2 × 2的最大池化,阴影部分为第一个输出元素及其计算所使用的输入元素。输出数组的高和宽分别为2,其中的4个元素由取最大值运算max得出:

max(0, 1, 3, 4) = 4,

max(1, 2, 4, 5) = 5,

max(3, 4, 6, 7) = 7,

max(4, 5, 7, 8) = 8。

二维平均池化的工作原理与二维最大池化类似,但将最大运算符替换成平均运算符。




おすすめ

転載: www.cnblogs.com/daomeidan/p/11729836.html