化妆品最新资讯ACL 2019 论文中谷歌提出了一个新方法旨在提高神经网络机器翻译的鲁棒性是不是让你

尽管近年来利用Transformer模型进行神经机器翻译(NMT)取得了巨大成功,但NMT模型对输入微小干扰的敏感性仍然是一个问题,导致各种错误的发生。谷歌研究院在ACL 2019上发表了一篇论文,提出了使用生成对抗性样本来提高机器翻译模型的鲁棒性,以防止输入中存在的细小扰动度对其造成影响。这篇论文由Yong Cheng、Lu Jiang和Wolfgang Macherey共同完成,他们提出了一种方法,即使用生成的对抗性样本来提高机器翻译模型的鲁棒性。

文章首先介绍了近年来的NMT模型在商业应用中的局限,包括它们缺乏鲁棒性的问题。虽然神经网络在计算机视觉领域已经展现出较强的鲁棒性能,但是相关文献中关于学习鲁棒NMT模型却很少。因此,该团队提出了一个新的方法,用以直接利用模型知识和扭曲预测意图以克服对抗性样本。

该方法主要是通过一种称为“AdvGen”的算法实现,对抗生成(AdvGen)的思想源自于生成对抗网络(GANs)。但与GANs不同,这个算法不依赖于鉴别器,而是简单地将这些相似单词反馈给训练过程中,以此达到多样化训练集和扩展训练数据集的目的。

实验结果显示,该方法能够显著提升标准基准上的性能,比如汉英和英德翻译任务,它们分别比传统Transformer模块高出2.8分BLEU值,并且获得了新的最佳成绩。在一个噪声数据集中评估时,该方法也表现出色,因为它能够处理类似的扰动,从而减少了错误发生率。

综上所述,这项工作展示了如何通过引入双向对抗性的输入样本来增强神经机器翻译系统,使其更加健壮并适应实际应用场景。此外,这一研究还指出了未来学习更具鲁棒性的深度学习系统方面的一个重要方向:开发能够有效抵御微小干扰并保持输出质量的一般化策略。