シリーズノート|深い学習シリアル(6):畳み込みニューラルネットワークインフラストラクチャ

トップをクリックして「AI適切な方法」、「スター」公開番号を選択します

ヘビードライグッズ、役立った最初の時間

1980年代初頭のように畳み込みニューラルネットワークは、彼がLecunが提案されているニューラルネットワークの学部長だった[LeNet-5、1980 LeCun]が、その時のデータ量、電源やその他の問題の計算で、広く使用されていないため。

1950生物学のためのノーベル賞からインスピレーションを得た畳み込みニューラルネットワーク。ヒューベル&ウィーゼル、1959、ビジョンを担当する猫の脳領域は、(というよりも魚)関心の小さなセグメントのために、この地域は遠く(近くではなく)目からです。

たたみ込みレイヤー1レイヤーのコンボリューション

レイヤーはコンボリューションフィルタを持っている、画像空間内のスライドに進み、ドットのドット

ドットフィルタの結果は、ドットを摺動した後、数値であり、それは1の元の層の厚さよりも小さい画像を形成します

フィルタは、多くのことができ、我々は6つのフィルタの例であり、

2.コンボリューション処理畳み込みプロセス

コンボリューションの処理は、畳み込みを組み合わせて一連の層です。

各層は低レバー、中間レベルから特徴を抽出し、高レベルのレベルに分類することができます。

ここでは分類プロセスの画像です:

3.畳み込み演算畳み込み計算

(1)例えば、活性化マップサイズ7×7サイズの画像を算出します

(2)ゼロパディング

ゼロパディングは、画像のコンボリューションのサイズを維持することができます

(3)計算

例:入力画像フィルタ10は5×5を有する第32x32x3であり、ストライドは、1パッド2であります

出力の大きさ?どのように多くのパラメータ?

出力ボリュームサイズ:空間(32 + 2 * 2-5)/ 1 + 1 = 32、32x32x10ので

この層内のパラメータの数?各フィルタは、553 + 1 = 76件のparams => 76×10 = 760を有しています

(4)まとめ

本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229、cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!

作者简介:武强 兰州大学博士,谷歌全球开发专家Google Develop Expert(GDE Machine Learing 方向) 

CSDN:https://me.csdn.net/dukuku5038 

知乎:https://www.zhihu.com/people/Dr.Wu/activities 

漫画人工智能公众号:DayuAI-Founder

系列笔记: 

系列笔记 | 深度学习连载(1):神经网络

系列笔记 | 深度学习连载(2):梯度下降

系列笔记 | 深度学习连载(3):反向传播

系列笔记 | 深度学习连载(4):优化技巧(上)

系列笔记 | 深度学习连载(5):优化技巧(下)

发布了251 篇原创文章 · 获赞 1024 · 访问量 137万+

おすすめ

転載: blog.csdn.net/red_stone1/article/details/104026445