[Pytorch系列-54]:循环神经网络 - torch.nn.GRU()参数详解

 作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/121645435


目录

第1章 GRU基本理论

第2章 torch.nn.GRU类的参数详解

2.1 类的原型

2.2 类的参数:用于构建LSTM神经网络实例

第3章 前向传播输入详解

3.1 前向传播的格式

3.2 input的格式

3.3 h_0的格式

3.4 c_0的格式

第4章 前向传播输出详解

4.1 输出返回值的格式

4.2 output的格式

4.3 h_n的格式

4.4 c_n的格式


第1章 GRU基本理论

[人工智能-深度学习-53]:LSTM长短记忆时序模型的简化:门控循环网络GRU模型_文火冰糖(王文兵)的博客-CSDN博客作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客本文网址:目录第1章 前序知识1.1 RNN循环神经网络模型1.2LSTM长短记忆时序模型1.3LSTM模型的缺点第2章GRU模型详解2.1 GRU模型概述2.2 RNN网络结构对比2.3 LSTM网络结构对比2.4GRU网络的结构2.5 GRU网络特点第3章 GRU的反向传播第1章 前序知识1.1 RNN循环神经网络模型[人工智能-深度学习-51...https://blog.csdn.net/HiWangWenBing/article/details/121599096

GRU与LSTM的参数类似,如下以LSTM为基准,删除掉多余的部分就是GRU。

第2章 torch.nn.GRU类的参数详解

2.1 类的原型

LSTM => GRU

图1 LSTM内部原理介绍 没啥好说的

 2.2 类的参数:用于构建RGU神经网络实例

图2 关键参数介绍

input_size: 输入序列的一维向量的长度。

hidden_size: 隐层的输出特征的长度。

num_layers:隐藏层堆叠的高度,用于增加隐层的深度。

bias:是否需要偏置b

batch_first:用于确定batch size是否需要放到输入输出数据形状的最前面。

若为真,则输入、输出的tensor的格式为(batch , seq , feature)

若为假,则输入、输出的tensor的格式为(seq,  batch , feature)

为什么需要该参数呢?

在CNN网络和全连接网络,batch通常位于输入数据形状的最前面

而对于具有时间信息的序列化数据,通常需要把seq放在最前面,需要把序列数据串行地输入网络中。

dropout: 默认0 若非0,则为dropout率。
bidirectional:是否为双向LSTM, 默认为否

第3章 前向传播输入详解

3.1 前向传播的格式

lstm (input, (h_0, c_0))

  • input:输入序列样本
  • h_0:先前的短期状态记忆
  • c_0:先期的长期状态记忆

3.2 input的格式

(1)当batch_first=false(默认)

input的形状为(seq_len,  batch,  input_size)

(2)当batch_first=true

input的形状为(batch, seq_len,  input_size)

(3)参数解读

  • batch:batch的长度
  • input_size:输入样本的向量长度。
  • seq_len:输入序列的长度,一次可以串行输入多个输入样本

3.3 h_0的格式

若h_0和c_0不提供,则默认为全0 .

h_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor

  • num_directions:由隐层的层数决定
  • batch:batch
  • hidden_size:隐层输出特征的长度

3.4 c_0的格式

若c_0不提供时,则默认为全0 .

c_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor

  • num_directions:由隐层的层数决定
  • batch:batch
  • hidden_size:隐层输出特征的长度

第4章 前向传播输出详解

4.1 输出返回值的格式

output, (h_n, c_n) = lstm (input, (h_0, c_0))

4.2 output的格式

(1)当batch_first=false(默认)

input的形状为(seq_len,  batch,  num_layers * num_directions,)

(2)当batch_first=true

input的形状为(batch, seq_len,  num_layers * num_directions,)

(3)参数解读

  • batch:batch的长度
  • num_directions:取决于堆叠的长度
  • seq_len:输入序列的长度,输出的长度与输入序列的长度一致。

4.3 h_n的格式

h_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor

  • num_directions:由隐层的层数决定
  • batch:batch
  • hidden_size:隐层输出特征的长度

4.4 c_n的格式

c_0是格式为: (num_layers * num_directions, batch, hidden_size) 的tensor

  • num_directions:由隐层的层数决定
  • batch:batch
  • hidden_size:隐层输出特征的长度

作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客

本文网址:https://blog.csdn.net/HiWangWenBing/article/details/121645435

猜你喜欢

转载自blog.csdn.net/HiWangWenBing/article/details/121645435