🚀 大规模多语言语音(MMS):英文文本转语音
本项目包含英文(eng)的文本转语音(TTS)模型检查点。该模型旨在提供跨多种语言的语音技术,解决了多语言语音合成的难题,为不同语言的语音交互提供了有力支持。
🚀 快速开始
MMS - TTS 从 🤗 Transformers 库的 4.33 版本开始可用。要使用此检查点,首先安装该库的最新版本:
pip install --upgrade transformers accelerate
然后,使用以下代码片段进行推理:
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-eng")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-eng")
text = "some example text in the English language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
生成的波形可以保存为 .wav
文件:
import scipy
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output.float().numpy())
或者在 Jupyter Notebook / Google Colab 中展示:
from IPython.display import Audio
Audio(output.numpy(), rate=model.config.sampling_rate)
✨ 主要特性
本项目基于 Facebook 的 大规模多语言语音 项目,旨在提供跨多种语言的语音技术。你可以在 MMS 语言覆盖概述 中找到更多关于支持语言及其 ISO 639 - 3 代码的详细信息,并在 Hugging Face Hub 上查看所有 MMS - TTS 检查点:[facebook/mms - tts](https://huggingface.co/models?sort=trending&search=facebook%2Fmms - tts)。
📚 详细文档
模型详情
VITS(基于对抗学习的端到端文本转语音变分推理)是一种端到端的语音合成模型,它根据输入的文本序列预测语音波形。它是一个条件变分自编码器(VAE),由后验编码器、解码器和条件先验组成。
基于流的模块会预测一组基于频谱图的声学特征,该模块由基于 Transformer 的文本编码器和多个耦合层组成。频谱图使用一组转置卷积层进行解码,与 HiFi - GAN 声码器的风格非常相似。考虑到 TTS 问题的一对多性质,即相同的文本输入可以有多种不同的发音方式,该模型还包含一个随机持续时间预测器,允许模型从相同的输入文本合成具有不同节奏的语音。
该模型通过结合变分下界和对抗训练得出的损失函数进行端到端训练。为了提高模型的表达能力,对条件先验分布应用了归一化流。在推理过程中,文本编码会根据持续时间预测模块进行上采样,然后通过流模块和 HiFi - GAN 解码器的级联映射到波形。由于持续时间预测器的随机性,该模型是非确定性的,因此需要固定种子才能生成相同的语音波形。
对于 MMS 项目,会针对每种语言分别训练一个 VITS 检查点。
💻 使用示例
基础用法
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-eng")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-eng")
text = "some example text in the English language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
高级用法
保存为音频文件
import scipy
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output.float().numpy())
在 Jupyter Notebook / Google Colab 中展示
from IPython.display import Audio
Audio(output.numpy(), rate=model.config.sampling_rate)
📄 许可证
该模型遵循 CC - BY - NC 4.0 许可协议。
📚 引用信息
此模型由 Meta AI 的 Vineel Pratap 等人开发。如果使用该模型,请考虑引用 MMS 论文:
@article{pratap2023mms,
title={Scaling Speech Technology to 1,000+ Languages},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}