F5 TTS Vietnamese 100h
基於F5-TTS微調的緊湊版本,訓練數據為150小時的越南語語音,僅限研究用途。
語音合成 其他
F
hynt
123
14
Pd Bert
MIT
基於BERT-base微調的複述檢測模型,適用於重複內容檢測、問答系統和語義相似度分析等場景。
文本分類
Transformers 英語

P
viswadarshan06
23
1
Whisper Large V3 Turbo
基於OpenAI Whisper Large v3 Turbo模型針對希伯來語進行微調的自動語音識別模型
語音識別
Transformers 其他

W
ivrit-ai
988
5
Voc2vec
Apache-2.0
voc2vec是專為非語言人類數據設計的基礎模型,基於wav2vec 2.0框架構建,預訓練數據集涵蓋約125小時非語言音頻。
音頻分類
Transformers 英語

V
alkiskoudounas
223
2
Rei 12B
Rei-12B是一個旨在復現Claude 3系列模型(特別是Sonnet和Opus)散文質量的大語言模型,基於Mistral-Nemo-Instruct微調而成
大型語言模型
Transformers 英語

R
Delta-Vector
944
26
Stt Uz Fastconformer Hybrid Large Pc
這是一個基於FastConformer架構的大型烏茲別克語語音識別模型,支持Transducer和CTC雙重解碼,在多個測試集上表現出色。
語音識別 其他
S
nvidia
96
6
Fashion Object Detection
MIT
基於microsoft/conditional-detr-resnet-50微調的時尚目標檢測模型,專門用於檢測時尚物品
目標檢測
Transformers 英語

F
yainage90
1,710
22
Llama3 Aloe 8B Alpha
Aloe是新一代醫療大語言模型家族,通過模型融合和先進的提示策略,在其規模範圍內與所有先前開源模型相比具有高度競爭力,並達到了最先進的成果。
大型語言模型
Transformers 英語

L
HPAI-BSC
6,663
61
RM Gemma 2B
基於google/gemma-2b-it訓練的獎勵模型,用於評估文本生成質量
大型語言模型
Transformers

R
weqweasdas
2,618
25
Orca Mini 3b
orca_mini_3b是基於OpenLLaMa-3B模型訓練的文本生成模型,採用了來自WizardLM、Alpaca和Dolly-V2數據集的指令和輸入進行解釋性調優,並應用了Orca研究論文中的數據集構建方法。
大型語言模型
Transformers 英語

O
pankajmathur
4,232
161
Chatgpt Paraphraser On T5 Base
Openrail
基於T5-base架構訓練的文本複述模型,能夠生成高質量複述文本,號稱Hugging Face平臺最佳複述模型之一
文本生成
Transformers 英語

C
humarin
115.08k
185
Ultima Waifu Diffusion
Openrail
一個基於穩定擴散技術的文本到圖像生成模型,專注於生成高質量的動漫風格圖像。
圖像生成 英語
U
AdamOswald1
112
13
Roberta Large Snli Mnli Fever Anli R1 R2 R3 Nli
MIT
基於RoBERTa-Large架構的多數據集預訓練自然語言推理模型,融合了SNLI、MNLI、FEVER-NLI和ANLI等多個知名NLI數據集。
大型語言模型
R
ynie
6,130
18
Wangchanberta Base Wiki 20210520 News Spm Finetune Qa
基於wangchanberta-base-wiki-20210520-news-spm模型微調的泰語問答模型,適用於泰語問答任務
問答系統
Transformers

W
cstorm125
20
0
Distilbert Base German Cased Toxic Comments
基於德語DistilBERT的文本分類模型,用於檢測德語評論中的惡意內容
文本分類
Transformers 德語

D
ml6team
356
12
Bp500 Base100k Voxpopuli
Apache-2.0
針對巴西葡萄牙語優化的語音識別模型,使用7個公開數據集共453小時語音訓練
語音識別
Transformers 其他

B
lgris
23
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98