リカレントニューラルネットワーク(リカレントニューラルネットワーク)

隠れ層のノードとの間の伝統的なニューラルネットワークモデルは、図のように接続され、図示されていません。

 

 

 リカレントニューラルネットワークおよび隠れ層とを接続するノードとの間には、データ・シーケンスは、主分類、予測処理に使用されます。接続手段は、情報、通常配列データ処理に使用されるようなネットワークを受信する必要があります。

 

入力隠された層の出力のみが入力層は、さらに隠された層、すなわちの出力タイミングを含むと、時刻情報記憶部は、ネットワークれる前に行われ、現在の出力の計算に適用されます。RNNシーケンス構造は、次のプロセスを持っていることがあります。

 

 

 一多く、例えば音声タグ、入力文、出力音声に対応する単語。

第二には、多くの-、このようなマーク感情の通過などです。

サード多く、非連続入力と出力の同期は、別の言語への言語の機械翻訳において、例えば出力されます。

第対多、例えば、入力画像は、このテキストは、コンテンツを記述するために使用され、生成したテキストを出力します。

RNN基本的な構造を以下に示します:

 

 左から右へ、3つの隠された層です折り畳むことができ、彼は円と矢印が隠れた層からの接続を表していると述べました。

 

 

 

RNN基本的な計算方法:

 

 RNNパラメータシェア

従来のニューラルネットワークでは、各レイヤのパラメータは共有されません。RNNの各ステップ共有パラメータU、V、W、すなわち、出力Oの計算にT + 1、U、V、W、これらのパラメータおよび値の計算、および出力Oパラメータ使用されるT場合に同じすなわち、図3 U、V 3は、3つの値のWは同じです。共有パラメータ説明RNN同じことをやってのすべてのステップは、単に異なる入力します。大幅それによって効率を向上させる、ネットワークのパラメータを学習する必要性を低減します。

おすすめ

転載: www.cnblogs.com/xyzluck/p/12095393.html