🚀 S2T-MEDIUM-MUSTC-MULTILINGUAL-ST
s2t-medium-mustc-multilingual-st
是一个用于端到端多语言语音翻译(ST)的语音转文本Transformer(S2T)模型。该S2T模型在 这篇论文 中被提出,并在 这个仓库 中发布。
🚀 快速开始
本模型可用于端到端的英语语音到法语文本的翻译。你可以访问 模型中心 查找其他S2T检查点。
✨ 主要特性
- 支持多种语言,包括英语、德语、荷兰语、西班牙语、法语、意大利语、葡萄牙语、罗马尼亚语和俄语。
- 基于Transformer架构的端到端语音识别和翻译模型。
- 使用卷积下采样器减少语音输入长度。
- 采用标准自回归交叉熵损失进行训练。
📦 安装指南
你可以通过以下两种方式安装额外的语音依赖项:
- 使用
pip install transformers"[speech, sentencepiece]"
一次性安装。
- 分别安装,使用
pip install torchaudio sentencepiece
。
💻 使用示例
基础用法
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")
def map_to_array(batch):
speech, _ = sf.read(batch["file"])
batch["speech"] = speech
return batch
ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation")
ds = ds.map(map_to_array)
inputs = processor(ds["speech"][0], sampling_rate=16_000, return_tensors="pt")
generated_ids = model.generate(
input_ids=inputs["input_features"],
attention_mask=inputs["attention_mask"],
forced_bos_token_id=processor.tokenizer.lang_code_to_id["fr"]
)
translation_fr = processor.batch_decode(generated_ids)
generated_ids = model.generate(
input_ids=inputs["input_features"],
attention_mask=inputs["attention_mask"],
forced_bos_token_id=processor.tokenizer.lang_code_to_id["de"]
)
translation_de = processor.batch_decode(generated_ids, skip_special_tokens=True)
⚠️ 重要提示
Speech2TextProcessor
对象使用 torchaudio 来提取滤波器组特征。在运行此示例之前,请确保安装 torchaudio
包。
📚 详细文档
模型描述
S2T是一个基于Transformer的序列到序列(编码器 - 解码器)模型,专为端到端自动语音识别(ASR)和语音翻译(ST)而设计。它使用卷积下采样器将语音输入的长度减少3/4,然后再将其输入到编码器中。该模型使用标准自回归交叉熵损失进行训练,并自回归地生成转录/翻译结果。
预期用途和限制
本模型可用于端到端的英语语音到法语文本的翻译。你可以访问 模型中心 查找其他S2T检查点。
训练数据
s2t-medium-mustc-multilingual-st
在 MuST-C 上进行训练。MuST-C是一个多语言语音翻译语料库,其规模和质量有助于训练从英语到多种语言的端到端语音翻译系统。对于每种目标语言,MuST-C包含数百小时来自英语TED演讲的音频记录,这些记录在句子级别自动与手动转录和翻译对齐。
训练过程
预处理
语音数据通过PyKaldi或torchaudio自动从WAV/FLAC音频文件中提取符合Kaldi标准的80通道对数梅尔滤波器组特征进行预处理。此外,对每个示例应用了基于语句级别的CMVN(倒谱均值和方差归一化)。
文本被转换为小写,并使用SentencePiece进行分词,词汇表大小为10,000。
训练
该模型使用标准自回归交叉熵损失和 SpecAugment 进行训练。编码器接收语音特征,解码器自回归地生成转录结果。为了加速模型训练并获得更好的性能,编码器针对多语言ASR进行了预训练。对于多语言模型,目标语言ID令牌用作目标BOS。
评估结果
MuST-C测试结果(BLEU分数):
英语 - 德语 |
英语 - 荷兰语 |
英语 - 西班牙语 |
英语 - 法语 |
英语 - 意大利语 |
英语 - 葡萄牙语 |
英语 - 罗马尼亚语 |
英语 - 俄语 |
24.5 |
28.6 |
28.2 |
34.9 |
24.6 |
31.1 |
23.8 |
16.0 |
BibTeX引用和引用信息
@inproceedings{wang2020fairseqs2t,
title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
year = {2020},
}
📄 许可证
本项目采用MIT许可证。