给定一个源输入

 服务二类     |      2021-04-07 20:12

呆板翻译(MT)是自然语言处理惩罚规模的一个重要分支,明升官网,旨在操作计较机翻译自然语言。连年来,端到端神经呆板翻译(NMT)取得了庞大的乐成,已成为实际呆板翻译系统中新的主流要领。

在他们的最新综述中,清华大学多位作者首先对深度进修的神经呆板翻译技能(neural machine translation,简称 NMT)的要领举办了遍及的回首,并重点先容了与体系布局、解码和数据加强相关的要领。然后总结了可供研究者参考的资源和东西。最后,对将来大概的研究偏向举办了接头。

给定一个源输入

论文资料显示,清华大学计较机系传授、欧洲科学院外籍院士孙茂松与清华智能财富研究院副院长、国度杰青刘洋是该论文的两位西席作者。

作为一种数据驱动的呆板翻译要领,NMT还包括了概率框架。从数学上讲,NMT的方针是在给定命据集的环境下预计一个未知的条件漫衍,个中和别离是暗示源输入和方针输出的随机变量。他们在论文中答复了NMT碰着的三个根基问题:

建模(modeling)。如何设计神经网络来模仿条件漫衍?

推理(inference)。给定一个源输入,如何从NMT模子生成翻译句子?

进修(learning)。如何有效地从数据中进修NMT所需的参数?

在这篇综述中,他们首先描写了NMT办理上述三个问题的根基要领。然后,深入接头NMT架构的细节。他们引入了非自回归NMTs和双向揣度,并接头了替代练习方针和利用单语数据。

译/前瞻经济学人APP资讯组

参考资料:https://www.sciencedirect.com/science/article/pii/S2666651020300024