紙の解釈「ディープ畳み込みニューラルネットワークとImageNet分類」

本論文では、AlexNetは提示し、フィールドでのCVの深さの調査で位置を築きました。
1. ReLu活性化機能
2.ドロップアウト
3.拡張データ


 

オーバーフィッティングの削減(オーバーフィッティングの削減)

動機:ネットワーク全体が6000万パラメータを持っていたよう。ILSVRC 1000のトレーニングクラスがオーバーフィッティングの問題を検討することは非常に必要なラベルに画像からマップ10上の制約を適用した各例ように。

拡張データ(データ増強)

画像データの拡大、人工データセットの、すなわち拡張は簡単で、過著者削減する現象最も一般的に使用される方法に合わせて2つの異なるデータ拡張メソッドを使用しました。

- 第一の形態は、翻訳のレベルを反映した画像を生成するステップを含む、特に、256×256ランダムに選択された画像パッチ訓練のための224 * 224の画像からそれらの種は、我々のトレーニングを増加されたサイズは、2048セット回、けれども非常に相互依存して当然の結果として訓練例。

 

おすすめ

転載: www.cnblogs.com/ChenKe-cheng/p/11371858.html