Facebook 开源翻译模型,可处理 100 种不同语言,无需英语作为中间步骤

SegmentFault

共 1913字,需浏览 4分钟

 ·

2020-10-24 09:20


技术编辑:芒果果丨发自 思否编辑部
公众号:SegmentFault




Facebook 今天开放了 M2M-100 的源代码,声称该算法是第一个能够在不依赖英语数据的情况下对 100 种语言进行翻译的算法。


M2M-100 训练了 2200 种语言对,翻译性能的指标上胜过以英语为中心的系统。




支持 100 种语言翻译,为全新语言创建数据


Facebook 利用反向翻译对低资源语言的数据进行了补充,这种方法包括用一种语言培训模型,并利用它翻译单语数据,以便用另一种语言创建合成的反向翻译数据。例如,如果目标是培训一个中文到法文的翻译模型,Facebook 的研究人员将培训一个法文到中文的模型,并将所有单语法文数据翻译成中文。在 M2M-100 的开发过程中,Facebook 将合成数据添加到语言挖掘中,并为以前未见的语言对创建数据。


M2M-100 基于 XLM-R,Facebook 的多语言模型,可以从一种语言的数据中学习,并用 100 种语言执行任务。


今年 7 月,Facebook 发布了一个支持 51 种不同语言的语音识别模型。最近,该公司详细介绍了 CRISS 系统,该系统从许多不同语言中挖掘未标记的数据,从而跨语言挖掘句子,并训练出优秀的模型。


巴黎 Facebook 人工智能研究中心的数据科学家 Angela Fan 在一篇博文中写道:“多年来,人工智能研究人员一直致力于建立一个单一、通用的模型,能够在不同的任务中理解所有语言。一个支持所有语言、方言和模式的单一模式将有助于我们更好地为更多的人服务,保持最新的翻译,并为数十亿人平等地创造新的体验。”


对于 M2M-100,Facebook 的研究人员采用了新颖的语言识别技术,从一系列来源中挖掘表面上质量更高的数据。一是语言不可知的句子表示(LASER),二是开放源码的工具包,它执行自然语言处理模型的零发射传输。另外两个是 CCMatrix,一个用于培训翻译模型的“十亿规模”双语数据集,以及 ccaleign,一个跨语言 web 文档对的大型集合。





多语言翻译可处理模型从未见过的语言


多语言机器翻译的目标是建立一个可以在世界上 7000 多种语言之间进行一对一翻译的模型,在相似的语言之间共享信息,这有益于资源匮乏的语言对,并可以将其翻译为该模型从未见过的语言。


想得到能力更强的翻译模型就需要更大的数据集训练,但这些数据集创建起来非常费力,所以一些研究人员会将重点放在英语数据集和建模技术上。例如,支持 100 种语言将需要 1000 亿个句子对,但是数据和建模方面的这种偏向并不能反映人们如何使用翻译,并且会导致非英语翻译的性能下降。


相比之下,Facebook 的 M2M-100 在包含 100 种不同语言的超过 75 亿个句子的数据集上进行了训练。为了构建它,Facebook 研究人员确定了三个标准来指导他们的语言选择,包括来自不同家族的语言,这些语言具有地域多样性,并被广泛使用。


然后他们把范围缩小到那些有评估数据的项目,以便更容易量化模型的性能。最后,在剩下的种语言中,他们排除了那些无法获得单语数据的语言。




语言分类得到大量数据集


Facebook 的研究人员避免了那些在统计学上很少需要翻译的对子,比如冰岛语、尼泊尔语、僧伽罗语和爪哇语。研究人员还引入了一种新的“桥梁挖掘策略”,根据分类、地理位置和文化相似性将语言分为14个类别。


生活在同一个语言群体中的国家的人们会更经常地交流,并从高质量的翻译中受益。例如,一个印度家庭可能包括一系列在印度使用的语言,如孟加拉语、印度语、马拉地语、尼泊尔语、泰米尔语和乌尔都语。


为了将不同家族的语言联系起来,Facebook 的研究人员确定了一小部分“桥梁语言” ,即每个家族中的一到三种主要语言。例如,印度语、孟加拉语和泰米尔语在数据集中成为了印度-雅利安语支的桥接语言。


然后,他们从这些桥接语言的所有可能组合中挖掘训练数据,得到了前面提到的 75 亿句数据。


Facebook表示,M2M-100 已经在其新闻源上平均每天处理200亿次翻译,并希望新系统能够提供更好的结果。


开源人工智能软件的创建是为了帮助庞大的社交网络以不同的语言更好地向全球用户提供内容服务。Facebook 的新翻译模型不需要依赖英语作为中间的翻译步骤,可以更好地保留语义。




- END -

浏览 33
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报