pytorch的LSTM笔记

pytorch 的LSTM初始化时的句子长度不是固定的,是可以动态调整的,只是作为batch训练时,需要保证句子的长度是统一的。

keras初始化模型是必须传入句子长度,也就是lstm的单元数,这个是模型参数的一部分

经实验证明,不同的输入长度,对于lstm网络的参数总量是一样的
lstm的参数在于神经元内部的参数,句子长度并不是lstm网络的参数

猜你喜欢

转载自www.cnblogs.com/rise0111/p/11527323.html