古典的なカタログの深い学習ネットワークモデルの開発の歴史に戻ります
次へ:深さ記事-ディープ学習ネットワークモデルの開発の古典的な歴史(b)の 精巧な構造と機能AlexNet
ディレクトリ内容
深さ記事-ディープ学習ネットワークモデルの開発の古典的な歴史() 開発モデルの歴史についてグラフ構造とLeNet-5の構造と機能
深さの記事-古典学習ネットワークモデルの深い履歴(b)の 精巧な構造と機能AlexNet
深さ記事-ディープ学習ネットワークモデルの古典的な歴史(c)の 精巧な構造とZF-ネットの特性
深さ記事-ディープ学習ネットワークモデルの古典的な歴史(d)の 精巧な構造とVGG16ています
深さ記事-ディープ学習ネットワークモデル(5)の古典的な歴史 GoogleNet構造と特性を手の込んだ(V1、V2、V3を含みます)
深さ記事-古典的な深い学習ネットワークモデル(6)の歴史 精巧な構造とResNetの特性
深さ記事-ディープ学習ネットワークモデル(7)の古典的な歴史は、 インセプション-ResNet構造と機能を詳しく説明します
深さ記事-ネットワークモデルの古典的な歴史が深い学習(h)の開発 精巧な構造をしていただけますDenseNet
深さの記事-ネットワークモデル(IX)の開発の深い学習古典的な歴史 精巧なダークネットの構造と各モデルのと精度と特性
このセクションでは、グラフィカルモデル構造の開発の歴史とLeNet-5構造及び特性に、次のセクションの構造と機能はAlexNetを精巧
図のグラフィカル構造。
II。ネットワーククラシック(クラシック・ネットワーク)
1. LeNet-5
论文地址: ドキュメントの認識へのグラデーションベースの学習応用
LeNet-5畳み込みニューラルネットワークは、1998年にLeCunは、視覚的なタスクの手書き数字認識を解決するために提案されます。私は「VALID」にパディングやパディングの使用を考えていませんでした。これは今より古典的なネットワーク、およびですので、基本的にはニューラルネットワークの深さを持っていません。次のプロパティについての話は、詳細を教えていません。興味のある友人は、用紙をよく読んで行くことができます。
(1)ネットワークの説明:
実際には、それは上記の構造から分かるように、入力が32×32であり、実際には、28x28は可能であるが、第一の層は、その十分なパディングを変更する必要があります。時々LeNet-5に、携帯側のための小さなメモリのため、当然のことながら、小さなLeNet-5ネットワークに起因するが、比較的、モデルも少ない1Mよりも非常に小さく、CKPTモデルファイルで、凍結されたPBモデルファイルであれば、小さいモデルそれは福音となりました。
ネットワークアーキテクチャ:
次のようにトレーニングプロセスは、次のとおりです。
チャートからわかるように、時間のトレーニング効果は、まだ十分に可能です。約1%のテスト喪失。そして、私の前に:深度記事- CNN畳み込みニューラルネットワーク(IV)CNN tfを使用してはmnist手書きの数字コードのデモプロジェクトも ちょうど約トレーニング、98%+に上昇するACC、その後、パラメータ、または早期停止と罰金についてのチューン外観を-tuning、ACCが問題になることはありません99%に上昇しました。
(2)LeNet-5の特徴:
。畳み込み、プーリングおよび非線形活性化関数:①畳み込み各層は、3つの部分から構成され
畳み込みを使用して②。空間特徴抽出
③。ダウンサンプリング(サブサンプル)平均セル層(平均プーリング)
④。双曲線正接(TANH)またはSタイプ(シグモイド)活性化関数、最終的な分類器としてソフトマックス
計算の複雑さを軽減する層の間⑤。スパース接続。
古典的なカタログの深い学習ネットワークモデルの開発の歴史に戻ります
次へ:深さ記事-ディープ学習ネットワークモデルの開発の古典的な歴史(b)の 精巧な構造と機能AlexNet