IT资讯

如何解决神经机器翻译三大关键性问题?清华发表NMT最新综述

作者:admin 2021-04-13 我要评论

如今,计算机技术渗透人们生活的方方面面,而要说对我们工作学习帮助极大的,机器翻译(machine translation)必须榜上有名。 近年来随着计算机技术的不断提高、...

在说正事之前,我要推荐一个福利:你还在原价购买阿里云、腾讯云、华为云服务器吗?那太亏啦!来这里,新购、升级、续费都打折,能够为您省60%的钱呢!2核4G企业级云服务器低至69元/年,点击进去看看吧>>>)

如今,计算机技术渗透人们生活的方方面面,而要说对我们工作学习帮助极大的,机器翻译(machine translation)必须榜上有名。

近年来随着计算机技术的不断提高、AI 系统的日益精进,机器翻译一直为人们所质疑的质量问题,也有了非常显著的改善。其中,神经机器翻译(neural machine translation)技术所作的贡献与创新也是一大研究热点。

近日,清华大学计算机系与智能产业研究院的机器翻译研究团队发表了一篇关于神经机器翻译技术的最新综述论文,文章对神经机器翻译方法进行回顾,并重点介绍与体系结构、解码和数据增强有关的方法,总结了对研究人员有用的资源和工具。最后,还讨论了该领域未来可能的研究方向。

清华大学计算机系教授、欧洲科学院外籍院士孙茂松与清华智能产业研究院副院长、国家杰青刘洋是该论文的两位教师作者。

该论文以《Neural machine translation: A review of methods, resources, and tools》为题发表在专注 AI 开放获取的新期刊 AI OPEN 上。

1神经机器翻译技术的发展

在 70 年的发展历程里,机器翻译经历了从兴起到高峰,从低迷到打开新研究思路的种种变化。

早在 1949 年,美国科学家 Warren Weaver 就首次提出 “使用计算机进行翻译” 的思想,他也被公认为是机器翻译的先驱者之一。1952 年,以色列著名哲学家、语言学家和数学家 Yehoshua Bar-Hillel 组织召开了第一次机器翻译大会。

此后,由于机器翻译质量难以达到要求,其发展在长达 30 年间始终缓慢,直到 1990 年之后,大量的双语、多语语料库给机器翻译注入新鲜血液,统计机器翻译(SMT)应运而生。这期间 IBM 研究人员也发表论文,详细论述了基于词典和转换规则的机器翻译方法和基于平行语料库的实例机器翻译方法。

近些年,基于深度学习的神经机器翻译技术(neural machine translation,简称 NMT)发展迅猛。深度学习由图灵奖得主 Geoffrey Hinton 等人在 2006 年提出,是一种深层的非线性数据处理技术,与传统的浅层次线性处理相比,它在处理模型分析和分类问题上更准确,性能更高。

NMT 与以前的机器翻译方法完全不同,一方面,NMT 在 SMT 中采用连续表示而不是离散符号表示;另一方面,NMT 使用单个大型神经网络对整个翻译过程进行建模,从而无需进行过多的特征工程。而且,NMT 的训练是端到端的(end-to-end),不像 SMT 中需要单独调整组件。除了简单之外,NMT 可适应多种语言之间的翻译,实现最先进的性能。

2如何解决三大关键性问题?

综述中,论文作者首先阐释了 NMT 系统的三个关键性问题:

  • 建模(modeling),即如何设计神经网络来对条件分布建模?
  • 推理(inference),即给定源输入,如何从 NMT 模型生成翻译句子?
  • 学习(learning),即如何有效地从数据中学习 NMT 所需的参数?

关于建模,NMT 通常采用编码器 - 解码器框架,由嵌入层 embedding,分类层 classifier,编码器网络 encoder 和解码器网络 decoder 组成。

图 | NMT 体系结构示意图,不同颜色代表不同的语言

因此,构建强大的编码器和解码器对 NMT 性能来说至关重要,其方法大致可分为三类:基于递归神经网络(RNN),基于卷积神经网络(CNN)和基于自注意力网络(SAN)的方法。

文章不仅详细阐释了三种方法的机制,还对比了其优点与缺陷,并提出相应的解决办法。例如 RNN 容易出现梯度消失 / 爆炸问题,CNN 接收领域有限较难扩张,SAN 则容易忽略序列中单词的顺序。

图 | RNN、CNN 和 SAN 分别编码序列的方式

关于推理,NMT 通常使用本地搜索算法(例如贪婪搜索或集束搜索)来找到最佳翻译结果。此外,NMT 通常使用最大对数似然(MLE)作为训练目标函数,这是一种估算概率分布参数的常用方法。

图 | 集束搜索算法

除了 NMT 的计算机原理与构建机制,文中还综述了不同的 NMT 研究方法与应用,例如有关使用单语言数据和无监督 NMT 的研究,以及有关提升 NMT 可解释性和鲁棒性的研究。

最后,文中还总结了当前流行的开源 NMT 工具,均可在 GitHub 直接获取。

3未来可能的研究方向

尽管 NMT 取得了巨大的成功,但仍有许多问题有待探索,因此,文章列出了 NMT 的一些重要且具有挑战性的问题。

第一,加深对 NMT 的了解。

尽管如今已经有很多尝试,试图分析和解释 NMT,但显然,NMT 领域还有许多未 “解锁” 之处。未来,要想窥破 NMT 技术的瓶颈和弱点,弄清 NMT 究竟如何产生其翻译结果显得格外重要。

第二,设计更好的 NMT 模型。

目前常见的是 Transformer 体系结构,设计一种比它更加优越、能够平衡翻译性能和计算复杂性的新体系结构,对于 NMT 研究和生产意义重大。

第三,充分利用单语言数据。

尽管如今单语言数据取得了显著进步,但 NMT 在利用丰富的单语言数据方面,仍有巨大的上升空间。

第四,对先前的知识进行整合。

除了自然语言,将人类其他知识纳入 NMT 也是一个重要的问题。如何实现离散表示和连续表示之间的互相转换一直是 NMT 面临的问题,仍需进一步探讨。

参考资料:

https://www.sciencedirect.com/science/article/pii/S2666651020300024

https://www.sciencedirect.com/journal/ai-open


本文转载自网络,原文链接:https://www.toutiao.com/a6940516850648220197/

版权声明:本文转载自网络,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。本站转载出于传播更多优秀技术知识之目的,如有侵权请联系QQ/微信:153890879删除

相关文章
  • 20款小众宝藏APP,工作、生活全不误,

    20款小众宝藏APP,工作、生活全不误,

  • 谷歌开发 MicroDroid,用于虚拟机的精

    谷歌开发 MicroDroid,用于虚拟机的精

  • 微信 8.0 专属红包灰度测试:可指定发

    微信 8.0 专属红包灰度测试:可指定发

  • 如何隐藏你的热更新 Bundle 文件?

    如何隐藏你的热更新 Bundle 文件?

腾讯云代理商
海外云服务器