今天是2020年2月1日,笔者学习了Attention Is All You Need(Transformer )
论文,可以在sequence to sequence 模型中用multi head self -attention
代替RNN,可以并行计算输出,其中multi head 的作用可以集成不同的上下文
attention,由于knowledge leve有限,代码层面有待学习
Attention Is All You Need(Transformer )
猜你喜欢
转载自blog.csdn.net/qq_38662930/article/details/104135647
今日推荐
周排行