LSTMノートのpytorch

LSTM初期化pytorchでの文の長さは、ちょうどバッチ訓練として、文の長さが一致していることを確認する必要があり、動的に調整することができ、固定されていません。

kerasモデルこれはモデルパラメータの一部であり、初期化文の長さ、単位LSTMの、すなわち数を渡す必要があり
、実験の異なる入力長、ネットワークパラメータの総量は同じLSTMであることを示し

パラメータパラメータLSTMそのニューロンの内部、ネットワーク文の長さではないLSTM

おすすめ

転載: www.cnblogs.com/rise0111/p/11527323.html