Published onJanuary 10, 2022Google-GNMTAI这篇文章介绍了Google的神经机器翻译系统,采用了深层LSTM、残差连接、注意力机制等技术来提高翻译质量。系统使用wordpiece模型来处理稀有词,并通过强化学习、beam search优化等方法进一步改进性能。在WMT14英法和英德翻译任务上取得了最佳结果,人工评测中比短语翻译系统错误减少60%。
Published onDecember 24, 2021MAC问题列表Ongoing这篇文章介绍了两个技术问题的解决方法。第一个是解决Mac系统上文件损坏的问题,通过在终端中输入特定命令来移除应用程序的隔离属性。第二个是关于Docker中docker.raw文件占用空间过大的问题,文章提供了一张图片展示如何调整相关设置。
Published onDecember 23, 2021MT_paper简单笔记AI这篇文章探讨了定制化神经机器翻译模型的开发,介绍了几个相关的开源项目。文章还证明了当前方法在领域适应、数据清洗和数据增强方面的实用性。另外,文章对句子级BLEU评分的平滑技术进行了系统比较,探讨了BLEU评分的应用原因。
Published onDecember 23, 2021计算机辅助翻译-coursera课程1-3AI这篇文章主要介绍了计算机辅助翻译(CAT)的相关知识,包括翻译过程、译员能力评估、翻译问题分类等。文章还讨论了翻译技术的组成,如翻译记忆、术语管理等,以及语料库在翻译研究和实践中的应用。最后介绍了一些常用的语料库检索工具。
Published onDecember 14, 2021Deep_Transformer(DLCL,_pre-norm)AI这篇文章提出了两种方法来改进Transformer模型用于机器翻译:pre-norm和dlcl。这些方法可以训练更深的网络,缓解梯度消失问题,同时减小模型大小并加快训练速度。实验结果显示BLEU分数提升0.4-2.4分,但整体性能提升不大。