注:
最基础版RNN那里可以不用把向量拆开讲,那样反而繁琐并且不容易对照公式,可以直接说U=V=W=[[1,1],[1,1]],直接对着公式用矩阵外积可能更好。
注:
“我”“吃”苹果”这三个词汇是在不同的时刻输入到rnn网络的把。“吃”训练出来的权重,会输入到“苹果”的模型的隐层中。
RNN公式推导:
循环神经网络(RNN)模型与前向反向传播算法 - 刘建平Pinard - 博客园
正文:
注:
最基础版RNN那里可以不用把向量拆开讲,那样反而繁琐并且不容易对照公式,可以直接说U=V=W=[[1,1],[1,1]],直接对着公式用矩阵外积可能更好。
注:
“我”“吃”苹果”这三个词汇是在不同的时刻输入到rnn网络的把。“吃”训练出来的权重,会输入到“苹果”的模型的隐层中。
RNN公式推导:
循环神经网络(RNN)模型与前向反向传播算法 - 刘建平Pinard - 博客园
正文: