仕上げ深学習の概念

仕上げ深学習の概念

分析勾配と勾配値

勾配値が得られた勾配を定義する勾配により計算される:X_I投与を非常に小さなオフセット、シフト量yを計算し、最終的にYのオフセットに局在するオフセットX_IをX_Iを除去します派生。

分析勾配は式計算された勾配の偏導関数のようにして得られたターゲット部分誘導体、の関数です。

コンボリューション層とプールされた層CNN

畳み込み層は、畳み込み演算に対応する二つの機能を実行することです。例えば、2つのフィルタ、サイズ3×3×3は、2の工程において、存在すると仮定すると、セット入力、7x7x3のデータサイズの画像がある(サイズ+(N-1)*ステップサイズ= 7)を私ができる畳み込み層出力は、サイズ3x3x2マトリックス用のn = 3のサイズで得られます。

この行列はそうM0 [I、J] = X [iがm、J + Nを+] * W0 [I、J]、Xは、元の入力行列であり、W0は、最初に、第M0の3x3x1行列、計算することができます。畳み込みカーネルは、式中、m、nは元の入力行列Xは、ウィンドウの位置にスライドされる表し; M1 [I、J] =のX [iがm、J + N +] * W1 [I、J]、原則と上記と一致し、それらを繰り返すことはしません。もちろん、出力は機能が操作を有効に行うために活性化させる後。

なぜ畳み込み演算を行いますか?私たちは隠れ層の完全なリンクを使用していると仮定し、その後、我々は画像が比較的大きい場合には、各ニューロンと次の層までの各ニューロンを接続する必要があり、我々はパラメータを格納するために多くのスペースを必要としますパラメータ。あなたは宇宙の大部分を保存することができますように、しかし、CNNの畳み込み層は、フィルターの形式で保存されているこれらのパラメータを選択します。

層は、また、フィルタを使用プーリング、さらに本体隠れ層マトリックスの量を減少させることができます。

時々ありますが、私たちは、畳み込み理由は、大規模なコンボリューション効果少数のより良い核よりも何倍も小さい場合、多層畳み込みを使用します。

おすすめ

転載: www.cnblogs.com/harrysong666/p/10929844.html