# 多指標評估

Bert Practice Classifier
Apache-2.0
基於distilbert-base-uncased微調的文本分類模型,在特定任務上進行了訓練。
文本分類 Transformers
B
RayenLLM
181
1
Auramask Ensemble Moon
Gpl-3.0
該模型使用改進的vnet架構進行2D圖像處理,專注於圖像到圖像的轉換任務,具有對抗性和美學優化特性。
圖像生成
A
logasja
17
0
Finetune Embedding All MiniLM L6 V2 Geotechnical Test V4
一個用於句子相似度計算的預訓練模型,能夠將句子轉換為高維向量空間中的嵌入表示,並計算它們之間的語義相似度。
文本嵌入
F
GbrlOl
20
1
Turkish Toxic Language Detection
MIT
該模型是基於 `dbmdz/bert-base-turkish-cased` 微調而來,用於對土耳其語文本進行二元有毒性分類。
文本分類 Transformers 其他
T
fc63
107
1
Giga Embeddings Instruct
MIT
Giga Embeddings Instruct 是一個高性能的嵌入模型,專注於文本分類和檢索任務,在多個基準測試中表現出色。
文本嵌入 支持多種語言
G
ai-sage
11.97k
46
Whisper Large V3 Turbo Arabic
Apache-2.0
基於transformers庫,在common_voice_11_0數據集上對openai/whisper-large-v3-turbo進行微調後的版本,專為阿拉伯語語音識別優化。
語音識別 Transformers
W
mboushaba
1,696
1
Hubert Uk
基於mHuBERT-147基礎模型訓練的烏克蘭語自動語音識別模型,支持烏克蘭語語音轉文本任務。
語音識別 其他
H
Yehor
31
4
ESG Classification En
MIT
一個專注於ESG(環境、社會與治理)領域的文本分類模型,用於分析企業報告中的可持續發展相關內容。
文本分類 Transformers 英語
E
cea-list-lasti
331
4
Case Analysis InLegalBERT
MIT
基於InLegalBERT微調的法律案例分析模型,專注於法律文本處理任務
文本分類 Transformers
C
cite-text-analysis
18
1
Med T5 Summ Ru
用於俄語生物醫學文本抽象摘要生成的序列到序列模型
文本生成 Transformers 其他
M
sacreemure
27
0
T5 Small Aslg Pc12
Apache-2.0
該模型是在aslg_pc12數據集上對t5-small進行微調的版本,主要用於手語翻譯任務。
機器翻譯 Transformers
T
HamdanXI
22
0
OPT PET Impression
這是一個基於BERT的醫學文本摘要模型,支持英文文本處理,適用於醫學文獻和報告的自動摘要生成。
文本生成 Transformers 英語
O
xtie
15
0
Opus Mt Ko En Korean Parallel Corpora
Apache-2.0
該模型是基於Helsinki-NLP/opus-mt-ko-en微調的韓英翻譯模型,使用Korean Parallel Corpora數據集進行訓練。
機器翻譯 Transformers 支持多種語言
O
DunnBC22
17
4
Codebert Base Malicious URLs
基於microsoft/codebert-base微調的惡意網址檢測模型,用於多分類任務
文本分類 Transformers 英語
C
DunnBC22
1,308
9
Wav2vec2 Base Speech Emotion Recognition
Apache-2.0
基於facebook/wav2vec2-base微調的語音情感識別模型,用於預測音頻樣本中說話者的情感。
音頻分類 Transformers 英語
W
DunnBC22
128
13
Cvt 13 384 In22k FV Finetuned Memes
Apache-2.0
基於microsoft/cvt-13-384-22k在圖像文件夾數據集上微調的圖像分類模型,在評估集上準確率達到83.46%
圖像分類 Transformers
C
jayanta
11
0
Randeng T5 784M QA Chinese
首箇中文生成式問答預訓練T5模型,基於悟道180G語料預訓練並在中文SQuAD和CMRC2018數據集上微調
問答系統 Transformers 中文
R
IDEA-CCNL
166
32
Arat5 Base Finetune Ar Xlsum
基於AraT5-base模型在阿拉伯語摘要數據集xlsum上微調的抽象摘要模型
文本生成 Transformers 阿拉伯語
A
ahmeddbahaa
15
0
Bert Base German Cased Finetuned Subj V3
MIT
基於bert-base-german-cased微調的德語文本分類模型
文本分類 Transformers
B
tbosse
15
0
Longformer Finetuned Norm
基於allenai/longformer-base-4096微調的模型,適用於長文本處理任務
大型語言模型 Transformers
L
brad1141
75
0
Distilbert Base Uncased Finetuned Combinedmodel1 Ner
Apache-2.0
該模型是基於distilbert-base-uncased在特定數據集上微調的版本,主要用於命名實體識別(NER)任務。
序列標註 Transformers
D
akshaychaudhary
15
0
Indo Roberta Indonli
MIT
基於Indo-roberta模型的印尼語自然語言推理分類器,使用IndoNLI數據集訓練
文本分類 Transformers 其他
I
StevenLimcorn
34
1
Matscibert
MIT
MatSciBERT是一個基於BERT架構的預訓練語言模型,專門針對材料科學領域的文本挖掘和信息提取任務進行優化。
大型語言模型 Transformers 英語
M
m3rg-iitd
11.98k
19
Xls R 1B Te
Apache-2.0
基於facebook/wav2vec2-xls-r-1b在OPENSLR_SLR66-NA數據集上微調的泰盧固語語音識別模型,支持自動語音識別任務。
語音識別 Transformers 其他
X
chmanoj
18
0
T5 Base Squad Qg Ae
基於T5-base微調的聯合問題生成與答案抽取模型,支持英語文本處理
問答系統 Transformers 英語
T
lmqg
56
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase