模型详细情况和参数
Massively Multilingual Speech简称MMS,是MetaAI发布的最新的语音模型,它可以完成自动语音识别(Auto Speech Recognition,ASR),也可以做语音合成(Text-to-Speech,TTS)。
现有的最大语音数据集最多覆盖100种语言。为了克服这一挑战,MetaAI转向了被翻译成许多不同语言的宗教文本,如圣经,这些翻译已经被广泛用于基于文本的语言翻译研究。通过这个项目,MetaAI创建了一个数据集,包含了在1100多种语言下的朗读《新约》的语音数据集,平均每种语言提供了32小时的数据。
MMS模型的一个显著特点是其覆盖的语言数量。通过使用wav2vec 2.0自我监督学习模型,MMS模型可以支持超过1100种语言的语音到文本和文本到语音转换,以及超过4000种语言的语言识别。这一点对于许多只有几百名使用者的语言来说,是非常重要的,因为对于这些语言,之前并没有语音技术的存在。
MMS比OpenAI的Whisper模型效果更好: