「ディープ畳み込みニューラルネットワークにおける効果的な受容野の理解」论文解读

知覚野生の概念は、特に重要であるので、すべての関連するニューロンがこの画像をカバーしていることを確認するために、野生意識のイメージはニューロンは、ニューロンの値に与える影響はありませんよりも、ここで、ネットワークCNNを理解し、診断に取り組んでいます領域は非常に重要であり、
タスクは、出力画像における単一のピクセルが、各出力画素が知覚の比較的大きなフィールドが事前テストを行う際に非常に重要で有するように、鍵情報の各々ができなくなり、予測される必要省略。

知覚されるフィールドを増加させる方法であって、理論的にそれ以上の層のネットワークを構築することによって達成することが知覚線形領域、増加に対するフィルタの畳み込みを増加させる、方法は、現在の知覚領域を増加させる、プール、サンプリングに使用することができます二つの技術の通常の組み合わせ。

 

出力のためのより多くのピクセルを持つことになり、直感的な、フィールドの真ん中の知覚影響:著者は、出力ユニットの知覚領域図中の画素の全てではないが、同じ貢献を持っていることがわかりました。
順方向伝搬、中間画素情報の知覚フィールドは異なる経路の数で出力に伝達することができ、エッジ画素は比較的小さいです。これは、これらの経路の勾配を介してくる、逆方向になるように中間画素の勾配の大きさより大きな更新をもたらしました

分布の野生の認知影響はガウス分布で、著者は、途中からガウス分布は非常に速く減衰するため、知覚の場の理論の有効部分は、実際には非常に小さいました


入力フィールドの知覚は、出力ニューロンにどのように影響するかをピクセル数を決定し、
結論があります:リアルタイムで感知しながら、トレーニングや認知野生の範囲を向上させるために有効に伴い、残留ネットワークにプールし、ダウンサンプリングの方法を使用していません全体像フィールドの野生全体の大きさのサイズが有効か、検知されていない領域は、画像全体を覆っているよりも大きくなりました。

残留ネットワークアーキテクチャモデルでは、サブサンプリング技術、認知ドメインの増加の理論は非常に大きいですが、また非常に効果的なドメインを意識した小型。

ガウス分布の影響を効果的に知覚される効果的なドメイン減らす
大きい右畳み込みカーネル初期化値が小さいセンター、外部重みを操作する1の重い重みを
フィールドの大きさの知覚wの有効最大にするように最適化
最適化問題を解決するために残りはゼロでありながら、均等に畳み込みカーネルの四隅に分散重量:、あなたは、このような解決策を得ます。
このような分布を得るためにいくつかの初期化方法は、全体の速度を向上させることができ

構造上の観点からは、CNNが知覚ドメインを高めるために良い効果的な対策は、そのようなDILATEのコンバージョンと思いスキップ-接続が知覚フィールドがさらに小さくなり、ドロップアウトは、効果的な知覚野生を変更しません

おすすめ

転載: www.cnblogs.com/ChenKe-cheng/p/11470204.html