Wav2vec2 Large 960h Lv60 Self With Wikipedia Lm
W
Wav2vec2 Large 960h Lv60 Self With Wikipedia Lm
由gxbag開發
基於Facebook的wav2vec2-large-960h-lv60-self模型,通過增強維基百科語言模型改進的自動語音識別(ASR)系統
下載量 15
發布時間 : 4/20/2022
模型概述
該模型結合了Facebook的wav2vec2語音識別架構和維基百科文本訓練的5-gram語言模型,提高了語音轉文字的準確性。
模型特點
增強語言模型
使用維基百科全文訓練的5-gram KenLM語言模型,提高了識別準確性
大規模訓練
基於960小時語音數據和800多萬單詞的文本數據訓練
優化處理
對維基百科數據進行了清理,移除了參考文獻、外部鏈接等非正文內容
高效剪枝
語言模型中所有3-gram及更大規模的單例詞均被剪枝,保持模型效率
模型能力
英語語音識別
長音頻處理(支持分塊處理)
高準確率轉錄
使用案例
語音轉錄
會議記錄
將會議錄音自動轉換為文字記錄
提高會議記錄效率,便於後期檢索
播客轉錄
將播客內容轉換為文字版本
便於內容索引和SEO優化
輔助技術
即時字幕生成
為視頻或直播生成即時字幕
提高內容可訪問性
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98