论文笔记:Attention Is All You Need

Attention Is All You Need

2018-04-17 10:35:25 

Introduction: 

  现有的做 domain translation 的方法大部分都是基于 encoder-decoder framework,取得顶尖性能的框架也都是 RNN + Attention Mechanism 的思路。而本文别出心裁,仅仅依赖于 attention 机制,就可以做到很好的性能,并且,这种方法并适用于并行(parallelization)。

  

猜你喜欢

转载自www.cnblogs.com/wangxiaocvpr/p/8862389.html