CNNの順に畳み込みニューラルネットワーク処理の応用

        データを効率的に使用しながら、それは、ローカル入力タイルから特徴を抽出し、モジュラー畳み込み演算を実行し、発現させることができるので、優れた性能で、CNNのマシンビジョン問題知ら。

       これらの特性はまた、彼は特に効果的なシーケンス処理作られた、コンピュータビジョンの分野で優れた性能を持つ畳み込みニューラルネットワークを可能にします。時間は、2次元画像の高さまたは幅のような、空間次元と見なすことができます。

       いくつかの系列が問題に対処するために、1次元の畳み込みニューラルネットワークの効果はRNN匹敵する、そしてコストは通常​​はるかに小さい計算することができます。最近では、[通常の空の畳み込みカーネル(拡張したカーネル)と一緒に食べる] 1次元の畳み込みニューラルネットワークは、オーディオ分野で大きな成功を達成し、機械翻訳を生成しています。単純なタスクテキストの分類と時系列予測のために、小さな一次元畳み込みニューラルネットワークは、RNN代わりに使用し、より速くすることができます。

配列次元データのプール

        CNNは、画像テンソル空間畳み込みニューラルネットワークをダウンサンプリングするために、このような二次元および二次元プーリング平均最大プーリングとして、次元プーリング操作に言及しました。短い次元(即ち、配列)の入力シーケンスから抽出し、その後、最大値(最大プール)または平均値(平均プールされた)を出力:あなたは同じ一次元プーリング操作を行うことができます。二次元畳み込みニューラルネットワークは、この操作は、一次元の入力(サブサンプリング)の長さを減少させるために使用されます。

CNNと長いシーケンスを処理するために結合RNN

        三次元畳み込みニューラルネットワークは、各入力配列セグメント、それは時間に敏感でないステップのシーケンスを処理し(ここで範囲が局所スケールのオーダーよりも大きいであることを特徴、すなわち、畳み込みウインドウのサイズよりも大きい)RNNは異なっています。長期的なモードを識別するために、層の数と畳み込み細胞層を一緒に上位層が長く、元の入力シーケンスのセグメントで観察することができるように積み重ねることができるが、これは依然として感受性配列を導入するための良い方法ではありません。CNN入力時系列内のすべての位置がシークモード、それが(最初どのくらい、どのくらいの時間、などから端から)見たパターンの時間位置を知りません。畳み込みニューラルネットワークは、意味のある結果を得ることができないので、いくつかの予測問題については、データポイントの以前の解釈に最新のデータポイントの解釈は、同じではありません。肯定的な感情やネガティブな感情のキーワードモードに関連付けられているため、この制限のためのCNNの感情の分類は、問題ではありません、と入力文のどの位置に関わらず、彼は同じに含まれる情報の量の表示されます。

        注文RNNの軽量の速度および感度と一緒に畳み込みニューラルネットワークに、1つのアプローチは、図のように、フロントRNNの前処理工程として一次元畳み込みニューラルネットワークを使用することです。それらは非常に長いので、配列はRNN(シーケンスの時間ステップの数千を含む)を処理することができないことが、この方法は特に有用です。製品のロールは、ニューラルネットワークは、高度な機能(ダウンサンプリング)で構成される短い配列に長い入力配列であってもよいです。次いで、抽出された特徴からなる、これらの配列は、RNNネットワーク入力となります。これらの配列は、次いで、抽出された特徴は、入力RNNからなるネットワークとなります。

要約:

1)一般的に、二次元畳み込みニューラルネットワークアーキテクチャおよびコンピュータビジョン次元畳み込みニューラルネットワークは非常に類似しており、それは、一緒にグローバルプールまたは平坦化操作の最終的な計算を積層MaxPooling1D層を層Conv1D。

2)プロセスRNN計算上非常に長い時間シーケンスが、一次元畳み込みニューラルネットワークの計算コストのコストは、それが前処理工程としてRNN次元畳み込みニューラルネットワークの前に小さい使用されているのでので、良いアイデアでありますこれは、より短い配列を可能にし、RNNが処理に有用な表現を抽出するために。

 

        

公開された137元の記事 ウォンの賞賛204 ビュー107万+

おすすめ

転載: blog.csdn.net/AnneQiQi/article/details/103909856