LSTMは、リカレントニューラルネットワークの基本概念の拡張であり、他にもさまざまな拡張があります。これらの拡張機能はすべて、細胞内ゲートまたは操作の数を微調整するだけです。たとえば、ゲートループユニットは、忘却ゲートと候補ゲートの候補選択ブランチを1つの更新ゲートに結合します。このゲートは、学習する必要のあるパラメーターの数を減らし、標準のLSTMに匹敵することが証明されていますが、計算のオーバーヘッドははるかに小さくなっています。
構造:
GRU:2つの入力と2つの出力があります
KerasはGRUレイヤーを提供します。コードのように、LSTMのように使用できます。
from keras.models import Sequential
from keras.layers import GRU
model = Sequential()
model.add(GRU(num_neurons, return_sequences=True, input_shape=X[0].shape))