ニューラルネットワークシステムの設計、実装のコンボリューション理論について

  人工ニューラルネットワーク畳み込みニューラルネットワーク、CNNは、一般的に深い学習の視覚的な画像の解析に使用されると呼ばれます。比喩的に言って、神経細胞生物学的構造のこれらのネットワークは、抽象からフィット感です。各一般互いに生物学的ニューロンと通信することができるように、CNNは、通信入力に応じて同様の出力を生成します。

  CNNの起源に取り組む、それが力を計算する際に急速な進歩で、おそらく1980年代の初めで、最新の技術がこの人気の強い、CNNを継続します。要するに、CNNの技術は、独自のアルゴリズムおよびスケーラビリティを使用して、ディメンション「神経質」操作を畳み込んデータや複雑なトレーニング、大量の、合理的な期間内にできます。現在、CNNが主に使用されますように人工知能ベースの仮想アシスタント、自動写真のタグ付け、自律走行車のタグ付けや映像側面とを。

従来の畳み込みニューラルネットワークとニューラルネットワークとの間に第一に、違い

  • CNNは解決できない従来のニューラルネットワークの計算コストの大きな問題を解決するために、より高い解像度の画像を処理することができ;例えば:224x224x3 = 150528入力特性に対応224224及び3チャネルを考慮して画像のサイズ、。第一層自体150528の1000×パラメータ1000個のノードを有する典型的なニューラルネットワークの隠れ層。この従来のニューラルネットワーク、それは単に計り知れないです。
  • 検出器不変(翻訳不変)関係なく、認識処理の時間のマイクロ周期特性、または局所領域の画像認識の大きさは、物体認識の目的は、不変の特性を有します。

 

 

二、CNNの作業メカニズムと原則

  コンボリューション層は、数学的な畳み込み演算に基づいています。畳み込みは、数値の二次元マトリクス状に、フィルタからなるグループから成ります。そして、入力フィルタと出力画像を生成するために組み合わせることができます。各層における畳み込みは、我々は、フィルタを使用して、フィルタは畳み込み演算を実行するために画像上にスライドさせます。主なタスクは、畳み込みフィルタ値と画像画素マトリックス乗算、および出力を加算した結果の値です。

  

   CNNは、例えば、特定のローカライズされた画像特徴を見つける私たちを助けることができる:画像内のエッジによって、我々は最初の層でネットワークにすることができ、これらの機能を使用するには、単純なモデルを模索します。私たちは地元のモデリングプロセスを呼ぶことにしましょう。再使用、ローカルモデルにおける分割画像の水平及び垂直エッジ。もちろん、より深い階層によって、二度目の複雑なパターンを構築します。

  典型的なケースは、垂直エッジ検出は、例示的なものです。

    

 

第三に、畳み込みニューラルネットワークアーキテクチャ

    まず、畳み込みニューラルネットワークは、コンボリューションの多くの層によって設定された、コンボリューション層は、CNNの比較的基本的な部分です。それはCNNを運ぶ負荷を計算するための主に担当しています。ベース層は、我々がここで仮にこれらのベース層ユニットセルを歓迎しているため、この機能に沿ったものである神経、によって定義された空間を減らすことができます。これは大幅に必要な計算量と重量を減少させる、進行中の同様の動作中にCNNに私たちを可能にします。現在では、検出プロセスの主流は、最寄りの原則の最大出力を検出することができます最大のプール、と言うことができます。検出ユニットセルは、我々は前述の不変性を提供し、正確にオブジェクトがフレーム上の任意の位置に表示するかどうか、識別されることを意味します。 

   ここでは、線形リンクのと呼ばれる完全な接続層(FC)ユニットセルの部分が一定の規則に従って新たな構造によって形成することができます。前の層または全てのニューロンの次の層のニューロンのこの層は、ちょうど見られる従来のニューラルネットワークのように、完全な接続性を有しています。それは行列の乗算とバイアス効果によって計算されるように、従来のニューラルネットワークのようにすることができた理由です。FC層は、入力と出力との間のマッピング関係を表します。畳み込みは、層の後層上に直接非線形コンボリューションそう頻繁に、離れリニア画像から線形操作であり、以来、非線形ネットワーク層を形成した後、導入は、直接非線形マッピングを有効にします。

  いくつかの非線形操作は、人気がある、があります。

  • シグモイド:この非線形の構造は、数学的なレベルで表現されています。例えば:F(X)= 1/1 + EXP(-x)..それは間の実数値をとり、0-1に圧縮します。しかし、それは致命的な問題がある - 問題は、局所的な勾配は、現象の消失をもたらす小さな勾配バックプロパゲーションとなる勾配の消失です。
  • TANH:実数は、範囲[-1,1]に圧縮することができます。トリガとしてシグモイドが飽和し、その差は、その出力が中心でゼロであることです。
  • ReLU:線形補正部(Relu)、一方、演算関数ƒ(κ)= MAX(0、κ)。換言すれば、単にトリガーにゼロの閾値で。S状結腸とTANHと比較すると、reluより信頼性の高い収束速度は、以上の6倍に増加しています。

 

第四に、畳み込みニューラルネットワークの設計

  構成要素とCNNの作業メカニズムの完全な知識では、我々は、ニューラルネットワークのコンボリューションを構築することができます。例えば:私たちは50,000例と組成の万例のトレーニングセットのデータセットであるCIFAR 10を、使用することができます。各例では、10クラスラベルから相互接続され、32×32のカラー画像です。

  モデルでトレーニングデータをフィッティングする過程で、我々は、データ拡張メソッドを使用します。構築されたネットワークでは、バッチ・レベルを使用して、本質的に必須のガウス分布ユニットの採用により、重み行列不適切な初期化の問題を回避します。アーキテクチャのCNNモデルが実装さ:

 

おすすめ

転載: www.cnblogs.com/Raodi/p/11610743.html