Wav2vec2 Base Librispeech Demo Colab
Apache-2.0
該模型是基於facebook/wav2vec2-base在LibriSpeech數據集上微調的語音識別模型,在評估集上取得了0.3174的詞錯誤率。
語音識別
Transformers

W
vishwasgautam
14
0
Hubert Base Librispeech Demo Colab
Apache-2.0
基於facebook/hubert-large-ls960-ft微調的語音識別模型,在LibriSpeech數據集上訓練
語音識別
Transformers

H
vishwasgautam
101
0
F5 Ita Test
這是F5-TTS模型的意大利語微調版本,基於facebook/multilingual_librispeech數據集訓練,專注於意大利語的文本轉語音任務。
語音合成 其他
F
alien79
98
2
Speecht5 Finetuned Multilingual Librispeech De
MIT
基於Microsoft SpeechT5模型在德語LibriSpeech數據集上微調的文本轉語音模型
語音合成
Transformers 德語

S
semaj83
14
0
Assignment1 Omar
Apache-2.0
Wav2Vec2是一個基於自監督學習的語音識別模型,在LibriSpeech 960小時語音數據上預訓練和微調,支持英語語音轉錄。
語音識別
Transformers 英語

A
Classroom-workshop
28
0
Librispeech 100h Supervised Meta
Apache-2.0
基於Kuray107/librispeech-5h-supervised微調的語音識別模型,在100小時LibriSpeech數據集上訓練
語音識別
Transformers

L
Kuray107
25
0
Data2vec Audio Large 960h
Apache-2.0
Data2Vec是一個通用自監督學習框架,適用於語音、視覺和語言任務。該音頻大模型基於LibriSpeech的960小時語音數據預訓練和微調,專為自動語音識別任務優化。
語音識別
Transformers 英語

D
facebook
2,531
7
Wav2vec2 100m Mls German Ft
Apache-2.0
該模型是基於facebook/wav2vec2-xls-r-100m在多語言LibriSpeech德語數據集上微調的自動語音識別模型
語音識別
Transformers

W
patrickvonplaten
27
0
Unispeech Sat Base 100h Libri Ft
Apache-2.0
基於UniSpeech-SAT基礎模型,在LibriSpeech語音數據上進行了100小時微調的自動語音識別模型
語音識別
Transformers 英語

U
microsoft
643
4
Wavlm Libri Clean 100h Large
基於microsoft/wavlm-large在LIBRISPEECH_ASR - CLEAN數據集上微調的自動語音識別模型
語音識別
Transformers

W
patrickvonplaten
8,171
3
Wavlm Base Libri Clean 100
基於WavLM架構的自動語音識別模型,在LibriSpeech CLEAN數據集(100小時)上微調
語音識別
Transformers

W
anjulRajendraSharma
73
0
Sew D Mid 400k Librispeech Clean 100h Ft
Apache-2.0
該模型是基於asapp/sew-d-mid-400k在LIBRISPEECH_ASR - CLEAN數據集上微調得到的自動語音識別模型,在評估集上取得了1.0536的詞錯誤率(WER)。
語音識別
Transformers

S
patrickvonplaten
15
1
Librispeech 100h Supervised
Apache-2.0
該模型是基於facebook/wav2vec2-large-lv60在LibriSpeech 100小時數據集上進行微調的語音識別模型,取得了較低的詞錯誤率。
語音識別
Transformers

L
Kuray107
14
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98