AMiner推荐论文:Facebook AI WMT21 News Translation Task Submission

论文链接:https://www.aminer.cn/pub/6111f7de5244ab9dcb065084?f=cs
Meta 提出的单个多语言模型,首次超过最佳双语模型,赢得了著名的 WMT 竞赛。
机器翻译(MT)领域的最终目标是构建一个通用的翻译系统,以帮助用户获取信息并更好地相互联系。但是 MT 领域需要解决实际应用中遇到的基本局限性,未来才能更好的使用。
如今,大多数 MT 系统使用双语模型组,这通常需要为每个语言对和任务提供大量标记示例。不幸的是,这种方法对于训练数据很少的语言(例如冰岛语、豪萨语)来说失败了。双语模型组的高度复杂性使得它无法扩展到大型实际应用程序中,因为每天有数十亿人用数百种语言发布信息。
为了构建通用翻译器,来自 Meta 的研究者认为 MT 领域应该从双语模型转向多语言翻译(Multilingual translation)——多语言模型即一个模型可以同时翻译许多语言对,包括对低资源语言对(例如,冰岛语到英语的翻译)和高资源语言对(例如,英语到德语的翻译)的翻译。
由于多语言翻译更简单、更容易扩展、并且更适合低资源语言等特点,更容易受到研究者的青睐。但直到现在,多语言翻译无法为高资源语言对提供与双语模型(经过特殊训练的)一样好的结果。因此,提供跨多种语言的高质量翻译通常涉及使用单个双语模型的组合,而对于低资源语言来说,实现还比较困难。
现在,Meta 的研究取得了突破性的进展:首次单一的多语言模型在 14 个语言对中有 10 个超过了经过特别训练的最好的双语模型,赢得了 WMT(一个著名的 MT 比赛)比赛。该单一多语言模型为低资源和高资源语言提供了最佳翻译,表明多语言方法确实是 MT 的未来。
AMiner,让AI帮你理解科学!https://www.aminer.cn
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/121356478