机器翻译是一项重要且具有挑战性的任务,旨在将自然语言句子从一种语言自动翻译成另一种语言。近年来,基于Transformer模型的神经机器翻译(NMT)在方法论和应用上都取得了重大突破,成为新的主流翻译方法。中国科学院自动化研究所宗成庆研究员团队概述了基于Transformer模型的神经机器翻译及其在其他任务的扩展应用。具体地,文章首先介绍了Transformer模型的整体结构,讨论了其在神经机器翻译中面临的主要挑战,并列出了应对每种挑战的代表性方法。接着列出了神经机器翻译的公共资源和工具。同时,简要介绍了Transformer模型在其他任务中的扩展应用,包括自然语言处理的其他任务、计算机视觉任务、语音相关任务和多模态任务。最后,提出了未来可行的研究方向。
全文导读
自动化所宗成庆团队 | 综述: Transformer模型-从机器翻译到其他任务的通用框架
视频可见于https://mp.weixin.qq.com/s/K7Ydi1lFmlKKK0a52NsWBQ
全文下载:
Transformer: A General Framework from Machine Translation to Others
Yang Zhao, Jiajun Zhang, Chengqing Zong
https://www.mi-research.net/en/article/doi/10.1007/s11633-022-1393-5
https://link.springer.com/article/10.1007/s11633-022-1393-5