Reranker MiniLM L6 H384 Uncased Gooaq 5 Epoch 1995000
Apache-2.0
這是一個從nreimers/MiniLM-L6-H384-uncased微調而來的交叉編碼器模型,用於計算文本對的分數,適用於文本重排序和語義搜索任務。
文本嵌入 英語
R
ayushexel
24
0
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要生成任務。
文本生成 英語
B
vapit
17
0
Belle Whisper Large V3 Zh Punct
Apache-2.0
基於whisper-large-v3-zh微調的中文語音識別模型,顯著提升標點符號識別能力,保持原有性能水準。
語音識別
Transformers

B
BELLE-2
2,471
31
Nuner V1 Orgs
基於FewNERD-fine-supervised微調的numind/NuNER-v1.0模型,用於識別文本中的組織實體(ORG)
序列標註
Transformers 支持多種語言

N
guishe
6,836
2
Rut5 ASR
Apache-2.0
基於ruT5-base架構訓練的模型,用於修正俄語自動語音識別(ASR)輸出中的錯誤
文本生成
Transformers 其他

R
bond005
62
6
Reward Model Deberta V3 Base
MIT
基於人類反饋訓練的獎勵模型,用於預測人類偏好的答案
大型語言模型
Transformers 英語

R
OpenAssistant
1,193
11
Trocr Base Str
TrOCR是基於Transformer的光學字符識別模型,專為單行文本圖像識別設計,在多個標準數據集上進行了微調。
文字識別
Transformers

T
microsoft
692
5
Stt De Conformer Transducer Large
這是一個用於德語自動語音識別的大型Conformer-Transducer模型,具有約1.2億參數,支持將德語語音轉錄為文本。
語音識別 德語
S
nvidia
66
6
Distilbart Xsum 12 6
Apache-2.0
DistilBART是BART模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
1,446
6
Distill Pegasus Cnn 16 4
PEGASUS是基於抽取間隔句子預訓練的抽象摘要生成模型,由Google Research團隊開發。
文本生成
Transformers 英語

D
sshleifer
286
4
Distilbart Xsum 6 6
Apache-2.0
DistilBART 是 BART 模型的蒸餾版本,專注於文本摘要任務,在保持較高性能的同時顯著減少模型大小和推理時間。
文本生成 英語
D
sshleifer
147
0
Bp Sid10 Xlsr
Apache-2.0
這是一個針對巴西葡萄牙語微調的Wav2vec 2.0模型,使用了Sidney數據集進行訓練,適用於巴西葡萄牙語的自動語音識別任務。
語音識別
Transformers 其他

B
lgris
21
0
Bp Commonvoice10 Xlsr
Apache-2.0
基於Common Voice 7.0數據集針對巴西葡萄牙語微調的Wav2vec 2.0模型,用於葡萄牙語語音識別
語音識別
Transformers 其他

B
lgris
25
0
Bp Tedx100 Xlsr
Apache-2.0
基於TEDx葡萄牙語數據集微調的巴西葡萄牙語Wav2vec 2.0語音識別模型
語音識別
Transformers 其他

B
lgris
23
0
Pegasus Arxiv
PEGASUS是基於間隙句子提取的預訓練抽象摘要模型,通過混合與隨機化策略優化摘要生成效果
文本生成
Transformers 英語

P
google
333
2
Bp Voxforge1 Xlsr
Apache-2.0
這是一個針對巴西葡萄牙語語音識別任務微調的Wav2Vec2模型,基於VoxForge數據集訓練。
語音識別
Transformers 其他

B
lgris
21
0
Bp Lapsbm1 Xlsr
Apache-2.0
基於LaPS BM數據集微調的巴西葡萄牙語Wav2vec 2.0語音識別模型
語音識別
Transformers 其他

B
lgris
20
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98