🚀 Parler-TTS Mini 多语言版
Parler-TTS Mini 多语言版 是 Parler-TTS Mini 的多语言扩展版本。它能够将文本转换为语音,支持英语、法语、西班牙语、葡萄牙语、波兰语、德语、意大利语和荷兰语等 8 种欧洲语言。该模型经过精心微调,在多种数据集上进行训练,具有出色的性能和广泛的应用潜力。
🚀 快速开始
安装
使用 Parler-TTS 就像说 “bonjour” 一样简单。只需安装一次库即可:
pip install git+https://github.com/huggingface/parler-tts.git
推理
Parler-TTS 经过训练,可以生成具有特定特征的语音,这些特征可以通过简单的文本提示进行控制,例如:
import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-multilingual").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-multilingual")
description_tokenizer = AutoTokenizer.from_pretrained(model.config.text_encoder._name_or_path)
prompt = "Hey, how are you doing today?"
description = "A female speaker delivers a slightly expressive and animated speech with a moderate speed and pitch. The recording is of very high quality, with the speaker's voice sounding clear and very close up."
input_ids = description_tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)
generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)
⚠️ 重要提示
与之前版本的 Parler-TTS 不同,这里我们使用两个分词器 - 一个用于提示,一个用于描述。
💡 使用建议
- 我们已经设置了一个 推理指南 来加快生成速度。可以考虑使用 SDPA、torch.compile、批处理和流式传输等技术!
- 在提示中包含 “very clear audio” 以生成最高质量的音频,包含 “very noisy audio” 以生成具有高背景噪音的音频。
- 可以使用标点符号来控制生成语音的韵律,例如使用逗号在语音中添加小停顿。
- 其余的语音特征(性别、语速、音高和混响)可以直接通过提示进行控制。
✨ 主要特性
- 多语言支持:支持 8 种欧洲语言,包括英语、法语、西班牙语、葡萄牙语、波兰语、德语、意大利语和荷兰语。
- 特征可控:可以通过简单的文本提示控制语音的各种特征,如性别、语速、音高、背景噪音等。
- 开源开放:完全开源发布,所有数据集、预处理代码、训练代码和模型权重都在宽松许可下公开,方便社区在此基础上进行开发。
📦 安装指南
使用以下命令安装 Parler-TTS 库:
pip install git+https://github.com/huggingface/parler-tts.git
💻 使用示例
基础用法
import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-multilingual").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-multilingual")
description_tokenizer = AutoTokenizer.from_pretrained(model.config.text_encoder._name_or_path)
prompt = "Hey, how are you doing today?"
description = "A female speaker delivers a slightly expressive and animated speech with a moderate speed and pitch. The recording is of very high quality, with the speaker's voice sounding clear and very close up."
input_ids = description_tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)
generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)
📚 详细文档
动机
Parler-TTS 是对 Dan Lyth 和 Simon King(分别来自 Stability AI 和爱丁堡大学)的论文 Natural language guidance of high-fidelity text-to-speech with synthetic annotations 中工作的复现。与其他 TTS 模型不同,Parler-TTS 是一个 完全开源 的版本。所有数据集、预处理代码、训练代码和模型权重都在宽松许可下公开,使社区能够在此基础上进行开发,构建自己强大的 TTS 模型。
Parler-TTS 发布时还附带了以下资源:
引用
如果你发现这个仓库很有用,请考虑引用这项工作以及原始的 Stability AI 论文:
@misc{lacombe-etal-2024-parler-tts,
author = {Yoach Lacombe and Vaibhav Srivastav and Sanchit Gandhi},
title = {Parler-TTS},
year = {2024},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/huggingface/parler-tts}}
}
@misc{lyth2024natural,
title={Natural language guidance of high-fidelity text-to-speech with synthetic annotations},
author={Dan Lyth and Simon King},
year={2024},
eprint={2402.01912},
archivePrefix={arXiv},
primaryClass={cs.SD}
}
📄 许可证
该模型在 Apache 2.0 许可下发布。