🚀 Wav2Vec2 Vakyansh泰米爾語模型
本模型基於多語言預訓練模型進行微調,用於自動語音識別任務,能將泰米爾語語音準確轉錄為文本,在相關測試集上有一定的表現。
🚀 快速開始
本模型在多語言預訓練模型 CLSRIL - 23 上進行了微調。原始的fairseq檢查點可在 [此處](https://github.com/Open - Speech - EkStep/vakyansh - models) 找到。使用此模型時,請確保您的語音輸入採樣率為16kHz。
⚠️ 重要提示
該模型的結果未使用語言模型,因此在某些情況下您可能會看到較高的字錯率(WER)。
✨ 主要特性
- 多語言預訓練基礎:基於多語言預訓練模型 CLSRIL - 23 微調,具備更廣泛的語言適應性。
- 特定語言優化:針對泰米爾語進行訓練,能更好地處理該語言的語音識別任務。
📦 安裝指南
文檔未提及具體安裝步驟,暫不提供。
💻 使用示例
基礎用法
import soundfile as sf
import torch
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
import argparse
def parse_transcription(wav_file):
processor = Wav2Vec2Processor.from_pretrained("Harveenchadha/vakyansh-wav2vec2-tamil-tam-250")
model = Wav2Vec2ForCTC.from_pretrained("Harveenchadha/vakyansh-wav2vec2-tamil-tam-250")
audio_input, sample_rate = sf.read(wav_file)
input_values = processor(audio_input, sampling_rate=sample_rate, return_tensors="pt").input_values
logits = model(input_values).logits
predicted_ids = torch.argmax(logits, dim=-1)
transcription = processor.decode(predicted_ids[0], skip_special_tokens=True)
print(transcription)
高級用法
import torch
import torchaudio
from datasets import load_dataset, load_metric
from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor
import re
test_dataset = load_dataset("common_voice", "ta", split="test")
wer = load_metric("wer")
processor = Wav2Vec2Processor.from_pretrained("Harveenchadha/vakyansh-wav2vec2-tamil-tam-250")
model = Wav2Vec2ForCTC.from_pretrained("Harveenchadha/vakyansh-wav2vec2-tamil-tam-250")
model.to("cuda")
resampler = torchaudio.transforms.Resample(48_000, 16_000)
chars_to_ignore_regex = '[\,\?\.\!\-\;\:\"\“]'
def speech_file_to_array_fn(batch):
batch["sentence"] = re.sub(chars_to_ignore_regex, '', batch["sentence"]).lower()
speech_array, sampling_rate = torchaudio.load(batch["path"])
batch["speech"] = resampler(speech_array).squeeze().numpy()
return batch
test_dataset = test_dataset.map(speech_file_to_array_fn)
def evaluate(batch):
inputs = processor(batch["speech"], sampling_rate=16_000, return_tensors="pt", padding=True)
with torch.no_grad():
logits = model(inputs.input_values.to("cuda")).logits
pred_ids = torch.argmax(logits, dim=-1)
batch["pred_strings"] = processor.batch_decode(pred_ids, skip_special_tokens=True)
return batch
result = test_dataset.map(evaluate, batched=True, batch_size=8)
print("WER: {:2f}".format(100 * wer.compute(predictions=result["pred_strings"], references=result["sentence"])))
📚 詳細文檔
數據集
本模型在4200小時的印地語標註數據上進行了訓練。截至目前,這些標註數據並未公開。
訓練腳本
模型使用Ekstep的Vakyansh團隊搭建的實驗平臺進行訓練。訓練倉庫可在 [此處](https://github.com/Open - Speech - EkStep/vakyansh - wav2vec2 - experimentation) 找到。
如果您想查看在wandb上的訓練日誌,可訪問 [此處](https://wandb.ai/harveenchadha/tamil - finetuning - multilingual)。
模型評估
在Common Voice的印地語測試數據上,可按上述高級用法中的代碼對模型進行評估。
測試結果:53.64 %
Colab評估
模型索引
屬性 |
詳情 |
模型名稱 |
Wav2Vec2 Vakyansh Tamil Model by Harveen Chadha |
任務類型 |
自動語音識別 |
數據集 |
Common Voice ta |
評估指標 |
測試字錯率(WER),值為53.64 |
🔧 技術細節
本模型基於多語言預訓練模型 CLSRIL - 23 進行微調,原始的fairseq檢查點可在 [此處](https://github.com/Open - Speech - EkStep/vakyansh - models) 找到。訓練過程使用了4200小時的印地語標註數據,通過特定的實驗平臺和訓練腳本完成訓練。
📄 許可證
本模型採用MIT許可證。
致謝
感謝Ekstep基金會使該模型的開發成為可能。Vakyansh團隊將開源所有印度語言的語音模型。