隠れ層のノードとの間の伝統的なニューラルネットワークモデルは、図のように接続され、図示されていません。
リカレントニューラルネットワークおよび隠れ層とを接続するノードとの間には、データ・シーケンスは、主分類、予測処理に使用されます。接続手段は、情報、通常配列データ処理に使用されるようなネットワークを受信する必要があります。
入力隠された層の出力のみが入力層は、さらに隠された層、すなわちの出力タイミングを含むと、時刻情報記憶部は、ネットワークれる前に行われ、現在の出力の計算に適用されます。RNNシーケンス構造は、次のプロセスを持っていることがあります。
一多く、例えば音声タグ、入力文、出力音声に対応する単語。
第二には、多くの-、このようなマーク感情の通過などです。
サード多く、非連続入力と出力の同期は、別の言語への言語の機械翻訳において、例えば出力されます。
第対多、例えば、入力画像は、このテキストは、コンテンツを記述するために使用され、生成したテキストを出力します。
RNN基本的な構造を以下に示します:
左から右へ、3つの隠された層です折り畳むことができ、彼は円と矢印が隠れた層からの接続を表していると述べました。
RNN基本的な計算方法:
RNNパラメータシェア
従来のニューラルネットワークでは、各レイヤのパラメータは共有されません。RNNの各ステップ共有パラメータU、V、W、すなわち、出力Oの計算にT + 1、U、V、W、これらのパラメータおよび値の計算、および出力Oパラメータ使用されるT場合に同じすなわち、図3 U、V 3は、3つの値のWは同じです。共有パラメータ説明RNN同じことをやってのすべてのステップは、単に異なる入力します。大幅それによって効率を向上させる、ネットワークのパラメータを学習する必要性を低減します。