🚀 Wav2Vec2-Large-XLSR-53-Chinese-zh-CN-aishell1
このモデルは、facebook/wav2vec2-large-xlsr-53 を AISHELL-1 データセットを用いて中国語でファインチューニングしたものです。このモデルを使用する際には、音声入力が16kHzでサンプリングされていることを確認してください。
🚀 クイックスタート
モデルの使用方法
このモデルは、言語モデルを使用せずに直接使用することができます。以下にコード例を示します。
import torch
import librosa
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
device = "cuda:0" if torch.cuda.is_available() else "cpu"
processor = Wav2Vec2Processor.from_pretrained(
'qinyue/wav2vec2-large-xlsr-53-chinese-zn-cn-aishell1')
model = Wav2Vec2ForCTC.from_pretrained(
'qinyue/wav2vec2-large-xlsr-53-chinese-zn-cn-aishell1').to(device)
filepath = 'test.wav'
audio, sr = librosa.load(filepath, sr=16000, mono=True)
inputs = processor(audio, sample_rate=16000, return_tensors="pt").to(device)
with torch.no_grad():
logits = model(inputs.input_values,
attention_mask=inputs.attention_mask).logits
predicted_ids = torch.argmax(logits, dim=-1)
pred_str = processor.decode(predicted_ids[0])
print(pred_str)
評価方法
以下のコードを使用して、モデルの評価を行うことができます。
wer_metric = load_metric("wer")
def compute_metrics(pred):
pred_logits = pred.predictions
pred_ids = np.argmax(pred_logits, axis=-1)
pred.label_ids[pred.label_ids == -100] = processor.tokenizer.pad_token_id
pred_str = processor.batch_decode(pred_ids, spaces_between_special_tokens=True)
label_str = processor.batch_decode(pred.label_ids, group_tokens=False, spaces_between_special_tokens=True)
wer = wer_metric.compute(predictions=pred_str, references=label_str)
return {"wer": wer}
評価結果
以下の表は、このモデルのAISHELL-1テストデータセットにおける単語誤り率(WER)を示しています。
参照文 |
予測文 |
据 伟 业 我 爱 我 家 市 场 研 究 院 测 算 |
据 北 业 我 爱 我 家 市 场 研 究 院 测 算 |
七 月 北 京 公 积 金 贷 款 成 交 量 提 升 了 百 分 之 五 |
七 月 北 京 公 积 金 贷 款 成 交 量 提 升 了 百 分 之 五 |
培 育 门 类 丰 富 层 次 齐 用 的 综 合 利 用 产 业 |
培 育 门 类 丰 富 层 资 集 业 的 综 合 利 用 产 业 |
我 们 迎 来 了 赶 超 发 达 国 家 的 难 得 机 遇 |
我 们 迎 来 了 赶 超 发 达 国 家 的 单 得 机 遇 |
坚 持 基 本 草 原 保 护 制 度 |
坚 持 基 本 草 员 保 护 制 度 |
强 化 水 生 生 态 修 复 和 建 设 |
强 化 水 生 生 态 修 复 和 建 设 |
温 州 两 男 子 为 争 女 人 驾 奔 驰 宝 马 街 头 四 次 对 撞 |
温 州 两 男 子 为 争 女 人 架 奔 驰 宝 马 接 头 四 次 对 重 |
她 表 示 应 该 是 吃 吃 饭 看 电 影 之 类 的 |
他 表 示 一 的 是 吃 吃 饭 看 电 影 之 理 |
加 强 畜 禽 遗 传 资 源 和 农 业 野 生 植 物 资 源 保 护 |
加 强 续 紧 遗 传 资 源 和 农 业 野 生 职 物 资 源 保 护 |
两 人 都 是 依 赖 电 话 沟 通 |
两 人 都 是 依 赖 电 话 沟 通 |
テスト結果:
以下の表に、AISHELL-1テストデータセットにおけるモデルの単語誤り率(WER)を示します。
モデル |
WER |
WER-with-LM |
qinyue/wav2vec2-large-xlsr-53-chinese-zn-cn-aishell1 |
7.04% |
3.96% |
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
📊 モデル情報
属性 |
详情 |
データセット |
AISHELL-1 |
評価指標 |
WER |
タグ |
audio, automatic-speech-recognition, speech, xlsr-fine-tuning-week |
モデル名 |
XLSR Wav2Vec2 Large 53 - Chinese (zh-CN), by Yue Qin |
タスク |
音声認識 (automatic-speech-recognition) |
テストWER |
7.04 |