晓查 发自 凹非寺量子位 报道 | 公众号 QbitAIFacebook AI(bush...|Meta发布支持128种语言的新语音模型:指向元宇宙跨语种交流
晓查发自凹非寺
量子位报道|公众号QbitAI
FacebookAI(bushi) , 更准确地说是MetaAI , 刚刚发布了自监督语音处理模型XLS-R , 共支持128种语言 。
文章图片
这项技术与Meta公司最新“元宇宙”愿景紧密相关 。
相互交谈是人们互动的一种自然方式 , 随着语音技术的发展 , 未来的虚拟世界可以使用我们技术进行互动 , 虚拟体验将与物理世界融为一体 。
【晓查 发自 凹非寺量子位 报道 | 公众号 QbitAIFacebook AI(bush...|Meta发布支持128种语言的新语音模型:指向元宇宙跨语种交流】说人话 , 就是让母语不同的人在元宇宙里社交:一位说着英语 , 一位说着汉语 , 两人可以靠XLS-R在元宇宙中无障碍对话 。
文章图片
实际效果如何呢?
MetaAI在HuggingFace上发布了试用版语音直译模型 , 支持从22种语言转换到16种语言 , 我们先来试试它的英译中效果 。
文章图片
文章图片
(虽然翻译腔较浓 , 但仍算准确 , 7秒钟的句子完成翻译仅1.53秒)
我们知道 , 世界上的语言有上千种 , 要用AI实现这些语言的互通并非易事 。
一般语料库的丰富程度决定了语言翻译模型的质量 , 语音翻译一般集中于几个资源多大语种之间 。 但是由于小语种往往语料匮乏 , 使用这类母语的人往往很难获得较高的AI翻译质量 。
XLS-R通过自监督技术对10倍的语音数据进行训练 , 大大改善了以前的多语言模型 , 尤其是小语种的处理 。
XLS-R的原理
XLS-R基于Facebook去年发布的wav2vec2.0技术 。
wav2vec2.0与BERT类似 , 是通过预测音频mask部分的语音单元来训练的 。 它们的区别是 , 语音音频是一种连续的信号 , 不能轻易清晰地分割成单词或其他单位 。
wav2vec2.0通过学习25毫秒长的基本单元来解决这个问题 , 以便能够学习高级上下文表示 。
文章图片
在仅拥有一小时的标记训练数据的情况下 , wav2vec2.0能通过后续无监督的训练数据 , 在LibreSpeech测试基准的100小时子集上达到SOTA水平 。
之后 , Facebook又推出了完全无监督的高性能语音识别模型wav2vec-U , 它纯粹从录制的语音音频和未配对的文本中学习 。
为了wav2vec-U让学习识别音频录音中的单词 , Facebook训练了一个GAN 。 生成器根据嵌入在自监督表示中的每个音频段 , 预测与语言中的声音对应的音素 。
而鉴别器负责评估预测的音素序列是否真实 。 最初 , 转录非常糟糕 , 但随着时间的推移 , 随着鉴别器的反馈 , 转录变得准确 。
文章图片
通过这种方式 , 它学会了区分生成器的语音识别输出和真实文本 。
Facebook在此基础上推出了包含53种语言的XLSR 。
而最新发布的XLS-R有128种语言之多 , 语种数量是XLSR的两倍多 , 数据量更是后者10倍——共计长达43.6万小时的语音 。
文章图片
XLS-R共有20亿参数 , 它在测试的37种语言中 , 表现优于大多数语种先前的工作 。 甚至在老挝语等小语种识别上 , 也能低于之前的错误率 。
文章图片
- 消研所周报|红杉中国控股WE11DONE;奈雪自主研发自动化制茶设备;bosie正式发布NFT数字艺术作品 | 自动化
- 快充|小米12 Pro首发自研澎湃P1芯片!卢伟冰:是快充行业的巨大突破
- 《自然》《科学》预告2022科学大事件
- 消费级|Mobileye联手极氪开发自动驾驶汽车,预计2024年推出
- 极氪将与Waymo合作开发自动驾驶出租车
- 小米12|首发自研芯片澎湃P1!雷军换上小米12 Pro
- 苹果公司|芯片巨头慌了?苹果拟开发自研无线芯片
- 果然,武汉驶上了AI高速路
- 英特尔|苹果设立新办公室开发自研无线芯片 博通可能被抛弃
- 小马|小马智行,主动退了一步