コンボリューションニューラルネットワーク - プーリングの概要

プーリング概念は前にダウンサンプリングと呼ばれ、AlexNetネットワークに提示されています。

最後にプーリング何をすべきか、あまりない説明。

 

プールの役割

プーリング層続いて活性化関数重畳後に形成された特徴マップ、すなわちRelu(WX + B):それが発生したプールの一部を同定する最初の必要性

1.プーリングは、次元削減可視化として理解することができます

2.プーリングは、局所的な変位又は引き起こさわずかなずれの影響を回避するため、モデルのロバスト性を向上させます

トレーニング速度を向上させる、モデルパラメータのプールを減らす3.

ある程度まで、モデルの精度を改善するために、そのような最大のような典型的な特性を、プール過剰適合を回避することが注目4. Aモデル

 

プーリング方法

二つの方法、max_poolingとmean_pooling、あまり説明

 

パディング

プールされたパディングパディング畳み込み、別途以下の説明とは異なり、

境界走査は、セルの残数がので、フィールドサイズプーリング、境界フィルよりも小さい場合場合、野生走査のプール時に与える平面境界充填が、同じ大きさを保証しないことがあり、同じ取らパディングその残り格子フィールドサイズプールの数に等しい、あなたは記入する必要はありません。

採取有効をパディングするとき、バウンダリスキャンセルの残数がフィールドのプールのサイズよりも小さい場合と、残存する細胞の数を与えるために、充填されません

 

mean_poolingより良いmax_poolingなぜ

また、過去にAlexNetで提案されているmax_pooling、それが有意に良好mean_poolingよりもだ、それは次のようにプールされている好ましい方法

利点をmax_pooling:

1. mean_poolingは、平均取る線形変換する。【 - 】線形、非線形変換は線形、強い発現モデル[MAX-取られるmax_pooling

2.両方のパラメータを減少させる、同様のドロップアウトを活性化しているニューロンの減少に相当max_poolingだけでなく、オーバーフィッティングを防ぐために

のみ通常の機能をあきらめて、典型的な特徴との関係をmax_poolingビューの感情的な観点から3.、モデルの精度を改善するのに役立ちます

 

のオーバーラッププール

実際には、重複AlexNetに提案してもプーリング、非常に単純な、

プーリングは、前のフィールドと野生ない交差点のプールの次のプールと重ならない、フィールドのすなわちプール・サイズは、重なり合うプールサイズ>ストライドからのストライドに等しいです。

うまくmax_pooling +のオーバーラッププールは、オーバーフィッティングを防ぐパフォーマンスモデルを改善することを実践ショー

 

バックプロパゲーションをプール

1 ,, mean_poolingバックプロパゲーション勾配1 /サイズでバックプロパゲーション勾配を一定にmax_pooling、下記参照

 

 

 

参考文献:

おすすめ

転載: www.cnblogs.com/yanshw/p/12208549.html