トップをクリックして「AI適切な方法」、「スター」公開番号を選択します
ヘビードライグッズ、役立った最初の時間
1980年代初頭のように畳み込みニューラルネットワークは、彼がLecunが提案されているニューラルネットワークの学部長だった[LeNet-5、1980 LeCun]が、その時のデータ量、電源やその他の問題の計算で、広く使用されていないため。
1950生物学のためのノーベル賞からインスピレーションを得た畳み込みニューラルネットワーク。ヒューベル&ウィーゼル、1959、ビジョンを担当する猫の脳領域は、(というよりも魚)関心の小さなセグメントのために、この地域は遠く(近くではなく)目からです。
たたみ込みレイヤー1レイヤーのコンボリューション
レイヤーはコンボリューションフィルタを持っている、画像空間内のスライドに進み、ドットのドット
ドットフィルタの結果は、ドットを摺動した後、数値であり、それは1の元の層の厚さよりも小さい画像を形成します
フィルタは、多くのことができ、我々は6つのフィルタの例であり、
2.コンボリューション処理畳み込みプロセス
コンボリューションの処理は、畳み込みを組み合わせて一連の層です。
各層は低レバー、中間レベルから特徴を抽出し、高レベルのレベルに分類することができます。
ここでは分類プロセスの画像です:
3.畳み込み演算畳み込み計算
(1)例えば、活性化マップサイズ7×7サイズの画像を算出します
(2)ゼロパディング
ゼロパディングは、画像のコンボリューションのサイズを維持することができます
(3)計算
例:入力画像フィルタ10は5×5を有する第32x32x3であり、ストライドは、1パッド2であります
出力の大きさ?どのように多くのパラメータ?
出力ボリュームサイズ:空間(32 + 2 * 2-5)/ 1 + 1 = 32、32x32x10ので
この層内のパラメータの数?各フィルタは、553 + 1 = 76件のparams => 76×10 = 760を有しています
(4)まとめ
本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229、cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!
作者简介:武强 兰州大学博士,谷歌全球开发专家Google Develop Expert(GDE Machine Learing 方向)
CSDN:https://me.csdn.net/dukuku5038
知乎:https://www.zhihu.com/people/Dr.Wu/activities
漫画人工智能公众号:DayuAI-Founder
系列笔记: