🚀 S2T-SMALL-COVOST2-EN-CA-ST
s2t-small-covost2-en-ca-st
是一个用于端到端语音翻译(ST)的语音转文本Transformer(S2T)模型。该S2T模型在 这篇论文 中被提出,并在 这个仓库 中发布。
🚀 快速开始
本模型可用于端到端的英语语音到加泰罗尼亚语文本的翻译。你可以在 模型中心 查找其他S2T检查点。
作为一个标准的序列到序列Transformer模型,你可以使用 generate
方法,将语音特征传递给模型来生成转录内容。
⚠️ 重要提示
Speech2TextProcessor
对象使用 torchaudio 来提取滤波器组特征。在运行此示例之前,请确保安装 torchaudio
包。你可以通过 pip install transformers"[speech, sentencepiece]"
作为额外的语音依赖项进行安装,或者使用 pip install torchaudio sentencepiece
分别安装这些包。
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-covost2-en-ca-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-covost2-en-ca-st")
def map_to_array(batch):
speech, _ = sf.read(batch["file"])
batch["speech"] = speech
return batch
ds = load_dataset(
"patrickvonplaten/librispeech_asr_dummy",
"clean",
split="validation"
)
ds = ds.map(map_to_array)
inputs = processor(
ds["speech"][0],
sampling_rate=48_000,
return_tensors="pt"
)
generated_ids = model.generate(input_ids=inputs["input_features"], attention_mask=inputs["attention_mask"])
translation = processor.batch_decode(generated_ids, skip_special_tokens=True)
✨ 主要特性
S2T是一个基于Transformer的序列到序列(编码器 - 解码器)模型,专为端到端的自动语音识别(ASR)和语音翻译(ST)而设计。它使用卷积下采样器,在将语音输入送入编码器之前,将其长度减少3/4。该模型使用标准的自回归交叉熵损失进行训练,并自回归地生成转录内容/翻译结果。
📦 安装指南
你可以通过以下两种方式安装所需的依赖包:
- 作为额外的语音依赖项安装:
pip install transformers"[speech, sentencepiece]"
- 分别安装:
pip install torchaudio sentencepiece
💻 使用示例
基础用法
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-covost2-en-ca-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-covost2-en-ca-st")
def map_to_array(batch):
speech, _ = sf.read(batch["file"])
batch["speech"] = speech
return batch
ds = load_dataset(
"patrickvonplaten/librispeech_asr_dummy",
"clean",
split="validation"
)
ds = ds.map(map_to_array)
inputs = processor(
ds["speech"][0],
sampling_rate=48_000,
return_tensors="pt"
)
generated_ids = model.generate(input_ids=inputs["input_features"], attention_mask=inputs["attention_mask"])
translation = processor.batch_decode(generated_ids, skip_special_tokens=True)
📚 详细文档
训练数据
s2t-small-covost2-en-ca-st
模型在 CoVoST2 的英语 - 加泰罗尼亚语子集上进行训练。CoVoST是一个基于 Common Voice 的大规模多语言ST语料库,旨在通过有史以来最大的开放数据集促进ST研究。
训练过程
预处理
语音数据通过PyKaldi或torchaudio自动从WAV/FLAC音频文件中提取符合Kaldi标准的80通道对数梅尔滤波器组特征进行预处理。此外,对每个示例应用了基于话语级别的CMVN(倒谱均值和方差归一化)。
文本被转换为小写,并使用基于字符的SentencePiece词汇进行分词。
训练
该模型使用标准的自回归交叉熵损失和 SpecAugment 进行训练。编码器接收语音特征,解码器自回归地生成转录内容。为了加速模型训练并提高性能,编码器针对英语ASR进行了预训练。
评估结果
CoVoST2测试集上英语到加泰罗尼亚语的评估结果(BLEU分数)为21.68。
🔧 技术细节
S2T模型使用卷积下采样器,在将语音输入送入编码器之前,将其长度减少3/4。模型训练采用标准的自回归交叉熵损失,自回归地生成转录内容/翻译结果。
📄 许可证
本模型采用MIT许可证。
BibTeX引用
@inproceedings{wang2020fairseqs2t,
title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
year = {2020},
}