模型简介
模型特点
模型能力
使用案例
🚀 wav2vec 2.0 多语言(微调版)
wav2vec 2.0 多语言(微调版)模型基于 16kHz 采样的语音音频进行预训练。该模型可用于下游任务,如自动语音识别,能有效提升语音识别效果。
🚀 快速开始
基础模型在 16kHz 采样的语音音频上进行了预训练。使用该模型时,请确保输入的语音也采样于 16kHz。请注意,此模型需要在下游任务(如自动语音识别)上进行微调。更多信息请查看 此博客。
作者:Alexis Conneau、Alexei Baevski、Ronan Collobert、Abdelrahman Mohamed、Michael Auli
摘要:本文介绍了 XLSR,它通过从多种语言的语音原始波形中预训练单个模型,学习跨语言的语音表示。我们基于 wav2vec 2.0 构建,该模型通过在掩码潜在语音表示上解决对比任务进行训练,并联合学习跨语言共享的潜在量化。最终的模型在标记数据上进行微调,实验表明,跨语言预训练明显优于单语言预训练。在 CommonVoice 基准测试中,与已知的最佳结果相比,XLSR 的音素错误率相对降低了 72%。在 BABEL 上,与可比系统相比,我们的方法使单词错误率相对降低了 16%。我们的方法实现了一个具有竞争力的单一多语言语音识别模型。分析表明,潜在的离散语音表示在不同语言之间共享,相关语言之间的共享程度更高。我们希望通过发布 XLSR - 53(一个在 53 种语言上预训练的大型模型)来推动低资源语音理解的研究。
原始模型可在 https://github.com/pytorch/fairseq/tree/master/examples/wav2vec#wav2vec-20 找到。
本模型在波斯语(法尔西语)上对 facebook/wav2vec2 - large - xlsr - 53 进行了微调,使用了 Common Voice 以及我们自己创建的数据集(占总数据集的 1/3)。使用此模型时,请确保输入的语音采样率为 16kHz。
✨ 主要特性
- 基于 16kHz 采样语音音频预训练,适用于语音识别等下游任务。
- 跨语言预训练,在多语言语音识别中表现出色。
- 微调后的模型在波斯语语音识别上有较好效果。
📦 安装指南
# 所需的包
!pip install git+https://github.com/huggingface/datasets.git
!pip install git+https://github.com/huggingface/transformers.git
!pip install torchaudio
!pip install librosa
!pip install jiwer
!pip install parsivar
!pip install num2fawords
# 归一化器
!wget -O normalizer.py https://huggingface.co/m3hrdadfi/"wav2vec2-large-xlsr-persian-v3/raw/main/dictionary.py
!wget -O normalizer.py https://huggingface.co/m3hrdadfi/"wav2vec2-large-xlsr-persian-v3/raw/main/normalizer.py
💻 使用示例
基础用法
如果你不确定转录内容是否干净(存在奇怪字符或其他字母字符),可以使用 m3hrdadfi/wav2vec2 - large - xlsr - persian - v3 提供的代码进行清理。
from normalizer import normalizer
def cleaning(text):
if not isinstance(text, str):
return None
return normalizer({"sentence": text}, return_dict=False)
# 用你自己的数据目录编辑这些部分
data_dir = "data"
test = pd.read_csv(f"{data_dir}/yourtest.tsv", sep=" ")
test["path"] = data_dir + "/clips/" + test["path"]
print(f"Step 0: {len(test)}")
test["status"] = test["path"].apply(lambda path: True if os.path.exists(path) else None)
test = test.dropna(subset=["path"])
test = test.drop("status", 1)
print(f"Step 1: {len(test)}")
test["sentence"] = test["sentence"].apply(lambda t: cleaning(t))
test = test.dropna(subset=["sentence"])
print(f"Step 2: {len(test)}")
test = test.reset_index(drop=True)
print(test.head())
test = test[["path", "sentence"]]
test.to_csv("/content/test.csv", sep=" ", encoding="utf-8", index=False)
高级用法
预测
import numpy as np
import pandas as pd
import librosa
import torch
import torchaudio
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
from datasets import load_dataset, load_metric
import IPython.display as ipd
model_name_or_path = "masoudmzb/wav2vec2-xlsr-multilingual-53-fa"
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(model_name_or_path, device)
processor = Wav2Vec2Processor.from_pretrained(model_name_or_path)
model = Wav2Vec2ForCTC.from_pretrained(model_name_or_path).to(device)
def speech_file_to_array_fn(batch):
speech_array, sampling_rate = torchaudio.load(batch["path"])
speech_array = speech_array.squeeze().numpy()
speech_array = librosa.resample(np.asarray(speech_array), sampling_rate, processor.feature_extractor.sampling_rate)
batch["speech"] = speech_array
return batch
def predict(batch):
features = processor(
batch["speech"],
sampling_rate=processor.feature_extractor.sampling_rate,
return_tensors="pt",
padding=True
)
input_values = features.input_values.to(device)
attention_mask = features.attention_mask.to(device)
with torch.no_grad():
logits = model(input_values, attention_mask=attention_mask).logits
pred_ids = torch.argmax(logits, dim=-1)
batch["predicted"] = processor.batch_decode(pred_ids)
return batch
# 用你自己的数据目录编辑这些部分
dataset = load_dataset("csv", data_files={"test": "/path_to/your_test.csv"}, delimiter=" ")["test"]
dataset = dataset.map(speech_file_to_array_fn)
result = dataset.map(predict, batched=True, batch_size=4)
计算 WER 分数
wer = load_metric("wer")
print("WER: {:.2f}".format(100 * wer.compute(predictions=result["predicted"], references=result["sentence"])))
输出结果
max_items = np.random.randint(0, len(result), 20).tolist()
for i in max_items:
reference, predicted = result["sentence"][i], result["predicted"][i]
print("reference:", reference)
print("predicted:", predicted)
print('---')
🔧 技术细节
评估
我们在私有数据集上对模型进行了评估,该数据集包含不同类型的音频(遗憾的是,用于测试和验证的数据集未公开,但你可以 点击此链接查看数据集示例):
名称 | 测试数据集(WER) |
---|---|
m3hrdadfi/wav2vec2 - large - xlsr - persian - v3 | 0.56754 |
此新模型 | 0.40815 |
基础多语言模型 | 0.69746 |
- 此表显示,添加更多数据可获得更好的结果。
训练详情
之前有一个模型在波斯语 Mozilla 数据集上进行了训练,因此我们决定在此基础上继续训练。模型从 mehrdadfa
的 检查点 进行热启动。
- 更多详细信息,你可以查看 🤗 模型中心的模型卡片中的
config.json
。 - 模型训练了 84000 步,相当于 12.42 个 epoch。
- 用于微调的基础模型为 https://huggingface.co/m3hrdadfi/wav2vec2-large-xlsr-persian-v3/tree/main。
微调建议
进行微调时,你可以查看以下链接。但请注意一些提示,你可能需要进行梯度累积,因为你可能需要更大的批量大小。有许多超参数需要确保正确设置:
- learning_rate
- attention_dropout
- hidden_dropout
- feat_proj_dropout
- mask_time_prob
- layer_drop
微调示例
数据集 | 微调示例 |
---|---|
在 Mozilla 土耳其语数据集上微调 | |
其他数据集和其他语言的示例代码 | github 链接 |
📄 许可证
若你对模型、预训练、代码或出版物有技术问题,请在仓库中创建一个 issue,这是联系我们的最快方式。
引用
我们尚未就该工作发表任何论文。不过,如果你使用了该模型,请按以下格式正确引用我们:
@misc{wav2vec2-xlsr-multilingual-53-fa,
author = {Paparnchi, Seyyed Mohammad Masoud},
title = {wav2vec2-xlsr-multilingual-53-fa},
year = 2021,
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/Hamtech-ai/wav2vec2-fa}},
}



