🚀 S2T-MEDIUM-MUSTC-MULTILINGUAL-ST
s2t-medium-mustc-multilingual-st
是一個用於端到端多語言語音翻譯(ST)的語音轉文本Transformer(S2T)模型。該S2T模型在 這篇論文 中被提出,並在 這個倉庫 中發佈。
🚀 快速開始
本模型可用於端到端的英語語音到法語文本的翻譯。你可以訪問 模型中心 查找其他S2T檢查點。
✨ 主要特性
- 支持多種語言,包括英語、德語、荷蘭語、西班牙語、法語、意大利語、葡萄牙語、羅馬尼亞語和俄語。
- 基於Transformer架構的端到端語音識別和翻譯模型。
- 使用卷積下采樣器減少語音輸入長度。
- 採用標準自迴歸交叉熵損失進行訓練。
📦 安裝指南
你可以通過以下兩種方式安裝額外的語音依賴項:
- 使用
pip install transformers"[speech, sentencepiece]"
一次性安裝。
- 分別安裝,使用
pip install torchaudio sentencepiece
。
💻 使用示例
基礎用法
import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf
model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")
def map_to_array(batch):
speech, _ = sf.read(batch["file"])
batch["speech"] = speech
return batch
ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation")
ds = ds.map(map_to_array)
inputs = processor(ds["speech"][0], sampling_rate=16_000, return_tensors="pt")
generated_ids = model.generate(
input_ids=inputs["input_features"],
attention_mask=inputs["attention_mask"],
forced_bos_token_id=processor.tokenizer.lang_code_to_id["fr"]
)
translation_fr = processor.batch_decode(generated_ids)
generated_ids = model.generate(
input_ids=inputs["input_features"],
attention_mask=inputs["attention_mask"],
forced_bos_token_id=processor.tokenizer.lang_code_to_id["de"]
)
translation_de = processor.batch_decode(generated_ids, skip_special_tokens=True)
⚠️ 重要提示
Speech2TextProcessor
對象使用 torchaudio 來提取濾波器組特徵。在運行此示例之前,請確保安裝 torchaudio
包。
📚 詳細文檔
模型描述
S2T是一個基於Transformer的序列到序列(編碼器 - 解碼器)模型,專為端到端自動語音識別(ASR)和語音翻譯(ST)而設計。它使用卷積下采樣器將語音輸入的長度減少3/4,然後再將其輸入到編碼器中。該模型使用標準自迴歸交叉熵損失進行訓練,並自迴歸地生成轉錄/翻譯結果。
預期用途和限制
本模型可用於端到端的英語語音到法語文本的翻譯。你可以訪問 模型中心 查找其他S2T檢查點。
訓練數據
s2t-medium-mustc-multilingual-st
在 MuST-C 上進行訓練。MuST-C是一個多語言語音翻譯語料庫,其規模和質量有助於訓練從英語到多種語言的端到端語音翻譯系統。對於每種目標語言,MuST-C包含數百小時來自英語TED演講的音頻記錄,這些記錄在句子級別自動與手動轉錄和翻譯對齊。
訓練過程
預處理
語音數據通過PyKaldi或torchaudio自動從WAV/FLAC音頻文件中提取符合Kaldi標準的80通道對數梅爾濾波器組特徵進行預處理。此外,對每個示例應用了基於語句級別的CMVN(倒譜均值和方差歸一化)。
文本被轉換為小寫,並使用SentencePiece進行分詞,詞彙表大小為10,000。
訓練
該模型使用標準自迴歸交叉熵損失和 SpecAugment 進行訓練。編碼器接收語音特徵,解碼器自迴歸地生成轉錄結果。為了加速模型訓練並獲得更好的性能,編碼器針對多語言ASR進行了預訓練。對於多語言模型,目標語言ID令牌用作目標BOS。
評估結果
MuST-C測試結果(BLEU分數):
英語 - 德語 |
英語 - 荷蘭語 |
英語 - 西班牙語 |
英語 - 法語 |
英語 - 意大利語 |
英語 - 葡萄牙語 |
英語 - 羅馬尼亞語 |
英語 - 俄語 |
24.5 |
28.6 |
28.2 |
34.9 |
24.6 |
31.1 |
23.8 |
16.0 |
BibTeX引用和引用信息
@inproceedings{wang2020fairseqs2t,
title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
year = {2020},
}
📄 許可證
本項目採用MIT許可證。