自然言語処理-Kerasはリカレントニューラルネットワークゲート付き回帰ユニットGRUの拡張を実現します

LSTMは、リカレントニューラルネットワークの基本概念の拡張であり、他にもさまざまな拡張があります。これらの拡張機能はすべて、細胞内ゲートまたは操作の数を微調整するだけです。たとえば、ゲートループユニットは、忘却ゲートと候補ゲートの候補選択ブランチを1つの更新ゲートに結合します。このゲートは、学習する必要のあるパラメーターの数を減らし、標準のLSTMに匹敵することが証明されていますが、計算のオーバーヘッドははるかに小さくなっています。
構造:
GRU:2つの入力と2つの出力があります
ここに画像の説明を挿入

KerasはGRUレイヤーを提供します。コードのように、LSTMのように使用できます。

from keras.models import Sequential
from keras.layers import GRU

model = Sequential()
model.add(GRU(num_neurons, return_sequences=True, input_shape=X[0].shape))

おすすめ

転載: blog.csdn.net/fgg1234567890/article/details/113533057