🚀 S2T-SMALL-COVOST2-CA-EN-ST
s2t-small-covost2-ca-en-st
是一個用於端到端語音翻譯(ST)的語音轉文本Transformer(S2T)模型。該S2T模型在 這篇論文 中被提出,並在 這個倉庫 中發佈。
🚀 快速開始
s2t-small-covost2-ca-en-st
模型可用於端到端的加泰羅尼亞語語音到英語文本的翻譯。你可以參考 模型中心 來查找其他S2T檢查點。
✨ 主要特性
S2T是一個基於Transformer的序列到序列(編碼器 - 解碼器)模型,專為端到端的自動語音識別(ASR)和語音翻譯(ST)而設計。它使用卷積下采樣器將語音輸入的長度減少3/4,然後再將其輸入到編碼器中。該模型使用標準的自迴歸交叉熵損失進行訓練,並自迴歸地生成轉錄/翻譯內容。
📦 安裝指南
由於這是一個標準的序列到序列Transformer模型,你可以使用 generate
方法,將語音特徵傳遞給模型來生成轉錄內容。
注意:Speech2TextProcessor
對象使用 torchaudio 來提取濾波器組特徵。在運行此示例之前,請確保安裝 torchaudio
包。
你可以通過以下兩種方式安裝依賴:
- 使用
pip install transformers"[speech, sentencepiece]"
作為額外的語音依賴項進行安裝。
- 分別安裝這些包,使用
pip install torchaudio sentencepiece
。
💻 使用示例
基礎用法
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-covost2-ca-en-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-covost2-ca-en-st")
def map_to_array(batch):
speech, _ = sf.read(batch["file"])
batch["speech"] = speech
return batch
ds = load_dataset(
"patrickvonplaten/librispeech_asr_dummy",
"clean",
split="validation"
)
ds = ds.map(map_to_array)
inputs = processor(
ds["speech"][0],
sampling_rate=48_000,
return_tensors="pt"
)
generated_ids = model.generate(input_ids=inputs["input_features"], attention_mask=inputs["attention_mask"])
translation = processor.batch_decode(generated_ids, skip_special_tokens=True)
🔧 技術細節
訓練數據
s2t-small-covost2-ca-en-st
模型是在 CoVoST2 的加泰羅尼亞語 - 英語子集上進行訓練的。CoVoST是一個基於 Common Voice 的大規模多語言ST語料庫,旨在通過有史以來最大的開放數據集促進ST研究。
訓練過程
預處理
語音數據通過PyKaldi或torchaudio自動從WAV/FLAC音頻文件中提取符合Kaldi標準的80通道對數梅爾濾波器組特徵進行預處理。此外,對每個示例應用了 utterance-level CMVN(倒譜均值和方差歸一化)。
文本被轉換為小寫,並使用基於字符的SentencePiece詞彙表進行分詞。
訓練
該模型使用標準的自迴歸交叉熵損失進行訓練,並使用 SpecAugment。編碼器接收語音特徵,解碼器自迴歸地生成轉錄內容。為了加速模型訓練並獲得更好的性能,編碼器針對英語ASR進行了預訓練。
評估結果
CoVOST2測試中加泰羅尼亞語到英語的BLEU分數為17.85。
📄 許可證
本模型採用MIT許可證。
BibTeX引用和引用信息
@inproceedings{wang2020fairseqs2t,
title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
year = {2020},
}
屬性 |
詳情 |
支持語言 |
加泰羅尼亞語、英語 |
數據集 |
CoVoST2 |
標籤 |
音頻、語音翻譯、自動語音識別 |
模型類型 |
語音轉文本Transformer(S2T)模型 |
訓練數據 |
CoVoST2的加泰羅尼亞語 - 英語子集 |
管道標籤 |
自動語音識別 |
⚠️ 重要提示
Speech2TextProcessor
對象使用 torchaudio 來提取濾波器組特徵。在運行使用該模型的示例之前,請確保安裝 torchaudio
包。
💡 使用建議
你可以通過 pip install transformers"[speech, sentencepiece]"
一次性安裝額外的語音依賴項,或者使用 pip install torchaudio sentencepiece
分別安裝所需的包。