CNN細胞層畳み込み層バックプロパゲーション

参考ます。https://blog.csdn.net/kyang624823/article/details/78633897

コンボリューション層細胞増殖をバック層:

1、CNNフォワード伝搬

A)層畳み込み、位置の値に対応する出力行列として、入力直角の位置に対応し、その後加算畳み込みカーネル行列について。入力がM * N行列inputXサイズ、* bのコンボリューションカーネルのサイズであれば、出力Yは、(M-A + 1)×(N-B + 1)のサイズです。 
ここで説明する絵を書きます 

b)細胞層の場合、入力テンソルの標準セルに応じて減少させました。 
C)完全接続層は、前一般的な伝播のネットワークに応じて算出。

2、CNNのバックプロパゲーションを除きます:

最初に、ニューラルネットワークの一般的な出力は、それぞれの層の入力は、zは単にベクトルであることに留意すべきである、とCNNで、Zは、入力された部分行列の複数の、即ち、三次元テンソルです。第二:

  1. 細胞の機能は、活性層ではありません。活性化は、それ自体が後むしろ、問題は、この問題を解決するために優れている、我々は、すなわち、σ(Z)= Zの活性化関数細胞層を作ることができます。そのような誘導体の細胞層1活性化関数。
  2. 順方向伝搬は、入力が圧縮される場合、細胞層は、次に我々はアップサンプリング処理を行う必要があり、前方には、上部層エラーを逆導き出します。
  3. 畳み込み層、または出力行列畳み込み加算電流層は、直接および一般的なネットワーク異なる行列乗算は、出力電流の層を得るために得られ、これ複数のテンソル畳み込み。そのようにコンボリューション層バックプロパゲーション、再帰演算誤差の層は、必ずしも異なる場合。
  4. 畳込み層は、Wを用いて畳み込み演算するので、エラーは、様々な方法の畳み込みカーネル層W、Bの全てのこの層に由来します。

層は、コンボリューションコンボリューションカーネルのコンボリューションカーネルの処理方法の複数を有することができるので、アルゴリズム式の複雑さを簡単にするために、我々は、以下の畳み込みカーネルの畳み込みを言及し、同一で独立しているいくつかの畳み込み層であります核1。次に、CNN特定のバックプロパゲーションのステップを見てください。

3、エラーが知られているプールされた層、逆層の導出に隠さエラー

順方向伝搬は、我々は、層は、入力エリアやMAX平均の既知の大きさのプールをプールしたプールであろう場合。今、私たちは、順番に、地域、エラー低減の前層の大面積からの誤差を減らします。このプロセスは、アップサンプリングと呼ばれています。私たちは、プールの領域のサイズは2×2であることを前提としています。k番目の層の誤差行列のL: 

プール領域は*大きさとして表されている場合、我々は、行列の行と列の上下左右-1の減少を延ばします。 
ここで説明する絵を書きます 

プーリング層のバックプロパゲーションは、一定の合計の配信損失(または勾配)を確保する必要があります。この原則によると、プールの最大のプールを意味し、バックプロパゲーションは異なっています。

MAX POOLING:

MAXであれば、我々は伝播左上、右下、右上、左下に記録される前に、最大前進位置は、変換行列であると仮定します。 
ここで説明する絵を書きます 

例えば:

最大プールは、同じ原理および勾配を満たすべき通信が最大値にパッチの層の後に送信される前に、最大プールを、他の画素の値をそのまま捨てます。次いで、バックプロパゲーションは、前の画素の勾配に直接層であり、他の画素勾配を受け入れていない、即ち0ですmaxは操作をプールし、従って動作が異なるという点で、平均が必要プーリングするとき、記録動作画素の最大値であり、最終的に、すなわち、最大ID下部リザーバ逆伝播を使用するので、この変数の最大値は、レコードの位置でありますその後、次のように仮定してフロント及び逆拡散への送信のプロセス。

 

平均POOLING
平均は、その後、平均化、行列を変換した場合: 
ここで説明する絵を書きます 

例えば:

前プーリングはに拡散することであることを意味パッチプールは、平均を求める行うの値、プロセスをプール確保従って、フロント層に割り当てられたn個の部分に分割素子の勾配に逆伝播されます勾配(残留)の合計は変わらず前と後

 

エラーレベルが式として導出される前に、このマトリックスは、エラーの層、次いで、後にアップサンプリングするためのマトリックスを介して上部誤差行列である: 
ここで説明する絵を書きます 
誘導式との誤差を逆一般的なネットワークは、非常に類似している: 
ここで説明する絵を書きます 
それは最初に異なることがわかります。

 

図4に示すように、公知の畳み込みエラー層、逆層の導出に隠さ誤差、

派生リンク:https://blog.csdn.net/legend_hua/article/details/81590979

以下の式である: 
ここで説明する絵を書きます 
我々は、式由来逆一般的なネットワークエラーを見て: 
ここで説明する絵を書きます 
約、即ち一度裏返し、180度回転動作中に、次の層のwの転置操作量という違いを見ます再度反転、これは実際には、用語「畳み込み」の意味である(我々は、単に数学的なトリックとして理解することができる)、図を参照して、Qは、計算を容易にするまで0の周りに誤差の層であり、Wが180度ですコンボリューションカーネルが反転し、P WおよびQは、畳み込み結果をやっています: 
ここで説明する絵を書きます

図5に示すように、エラーが畳み込み層、層導出W、Bの勾配が知られています

:上記の手順の後、我々は、次に、層ごとの誤差を計算した 
A)完全接続層は、この層は、従来のネットワーク逆伝搬アルゴリズムに従ってW、Bの勾配を見出すことができます。 
b)細胞層の場合は、W、B、W、Bの勾配を求めていないしません。 
:C)のみの畳み込みW層、計算に必要なB、W見える 
ここで説明する絵を書きます 
ネットワークは差は、前の層の出力上で回転180度動作ないことが見出さwは次いで、一般式評価勾配を比較する: 
ここで説明する絵を書きます 
BのCNNで、誤差δは、三次元テンソルであり、そしてbはベクターのみであり、そして等しい誤差δの一般的なネットワークほど直接的ではないので、それは幾分特別です。通常の実施は、エラーベクトルを得るために合計されるサブマトリクスの誤差δの各エントリに対して、bは勾配です。 

ここで説明する絵を書きます

 

おすすめ

転載: www.cnblogs.com/WSX1994/p/11230121.html