Attention Is All You Need(Transformer )

今天是2020年2月1日,笔者学习了Attention Is All You Need(Transformer )
论文,可以在sequence to sequence 模型中用multi head self -attention 
代替RNN,可以并行计算输出,其中multi head 的作用可以集成不同的上下文
attention,由于knowledge leve有限,代码层面有待学习
发布了239 篇原创文章 · 获赞 16 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/qq_38662930/article/details/104135647