🚀 大规模多语言语音 (MMS):拉丁语文本转语音
本项目提供了一个基于大规模多语言语音(MMS)技术的拉丁语文本转语音(TTS)模型。该模型能够将输入的拉丁语文本转换为自然流畅的语音输出,为拉丁语的语音合成提供了高效、准确的解决方案。
🚀 快速开始
MMS-TTS 从 🤗 Transformers 库的 4.33 版本开始可用。要使用此检查点,首先需要安装该库的最新版本:
pip install --upgrade transformers accelerate
然后,使用以下代码片段进行推理:
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-lat")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-lat")
text = "some example text in the Latin language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
生成的波形可以保存为 .wav
文件:
import scipy
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output)
或者在 Jupyter Notebook / Google Colab 中显示:
from IPython.display import Audio
Audio(output, rate=model.config.sampling_rate)
✨ 主要特性
- 多语言支持:作为 MMS 项目的一部分,该模型支持多种语言,为全球用户提供了广泛的语音合成选择。
- 高质量语音合成:基于 VITS 架构,模型能够生成自然、流畅的语音,具有较高的音质和表现力。
- 随机节奏生成:模型中的随机时长预测器允许从相同的输入文本合成具有不同节奏的语音,增加了语音的自然度和多样性。
📚 详细文档
模型细节
VITS(变分推理端到端文本到语音)是一种端到端的语音合成模型,它根据输入的文本序列预测语音波形。它是一个条件变分自编码器(VAE),由后验编码器、解码器和条件先验组成。
基于流的模块预测一组基于频谱图的声学特征,该模块由基于 Transformer 的文本编码器和多个耦合层组成。频谱图使用一组转置卷积层进行解码,与 HiFi - GAN 声码器的风格非常相似。考虑到 TTS 问题的一对多性质,即相同的文本输入可以有多种发音方式,该模型还包括一个随机时长预测器,允许模型从相同的输入文本合成具有不同节奏的语音。
该模型通过结合变分下界和对抗训练得出的损失进行端到端训练。为了提高模型的表现力,对条件先验分布应用了归一化流。在推理过程中,文本编码根据时长预测模块进行上采样,然后通过流模块和 HiFi - GAN 解码器的级联映射到波形。由于时长预测器的随机性质,该模型是非确定性的,因此需要固定种子才能生成相同的语音波形。
对于 MMS 项目,每种语言都训练了一个单独的 VITS 检查点。
💻 使用示例
基础用法
from transformers import VitsModel, AutoTokenizer
import torch
model = VitsModel.from_pretrained("facebook/mms-tts-lat")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-lat")
text = "some example text in the Latin language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
高级用法
import scipy
import torch
from transformers import VitsModel, AutoTokenizer
from IPython.display import Audio
model = VitsModel.from_pretrained("facebook/mms-tts-lat")
tokenizer = AutoTokenizer.from_pretrained("facebook/mms-tts-lat")
text = "some example text in the Latin language"
inputs = tokenizer(text, return_tensors="pt")
with torch.no_grad():
output = model(**inputs).waveform
scipy.io.wavfile.write("techno.wav", rate=model.config.sampling_rate, data=output)
Audio(output, rate=model.config.sampling_rate)
📄 许可证
该模型遵循 CC - BY - NC 4.0 许可证。
📚 BibTex引用
此模型由 Meta AI 的 Vineel Pratap 等人开发。如果您使用该模型,请考虑引用 MMS 论文:
@article{pratap2023mms,
title={Scaling Speech Technology to 1,000+ Languages},
author={Vineel Pratap and Andros Tjandra and Bowen Shi and Paden Tomasello and Arun Babu and Sayani Kundu and Ali Elkahky and Zhaoheng Ni and Apoorv Vyas and Maryam Fazel-Zarandi and Alexei Baevski and Yossi Adi and Xiaohui Zhang and Wei-Ning Hsu and Alexis Conneau and Michael Auli},
journal={arXiv},
year={2023}
}