最新影视资讯ACL 2019 论文中谷歌提出了什么新方法来增强神经网络机器翻译的鲁棒性

尽管近年来利用Transformer模型进行神经机器翻译(NMT)取得了巨大成功,但这些模型对输入的微小干扰仍然非常敏感,导致各种不同的错误。为了解决这个问题,谷歌研究院的一篇ACL 2019论文提出了一种方法,即使用生成的对抗性样本来提高机器翻译模型的鲁棒性,从而防止输入中存在的细小扰动度对其造成影响。该方法通过学习一个鲁棒NMT模型,直接利用模型知识和扭曲模型预测的意图来克服对抗性样本。

结果表明,该方法显著提高了NMT模型在标准基准上的性能。在本文中,我们将介绍《具有双对抗性输入的鲁棒神经机器翻译》这篇在ACL 2019上发表的论文,以及如何用AdvGen训练一个理想化的地球外星人,将会使得对于存在微小差异独立输入生成相似的翻译结果。我们的方法是使用对抗性输入来干扰翻译模型,以期提高其鲁棒性。这涉及到一种称为对抗生成(AdvGen)的算法,它生成可信的对抗样本以扰乱后续反馈给它以防御训练。

我们首先使用AdvGen干扰Transformer,然后将构造出的源句子作为反馈给Transformer进行防御阶段计算损失。在这个过程中,对抗性的源句子被反馈给Transformer,并且再次计算损失,而不是原来的目标输出句和目标输入句。

最后,将最终计算出的是一份新的、更强大的基于多任务学习的地球外星人的语言库,这个库包括地球上所有已知语言以及一些未知语言,还有一些未来可能出现的人工智能语言。此外,我们还发现,在噪声数据集上评估我们的模型时,其性能与竞争者相比有显著提升。

通过这种方式,我们不仅能够提供更加精确和高效地将地球上的任何一种语言转换成另一种相同或不同类型的人类交流模式,而且我们也能为那些正在开发自己的自主人工智能系统的人提供帮助,使他们能够理解并正确处理来自未知来源或格式的人类交流信息。这对于维护全球安全、促进国际合作以及增强人类与AI互动体验至关重要。