# 高F1值

Sage V1.1.0
MIT
基於FRED-T5-1.7B訓練的俄語拼寫檢查模型,可糾正拼寫、標點和大小寫錯誤
文本生成 Transformers 其他
S
ai-forever
668
6
XLM RoBERTa German Sentiment
Apache-2.0
基於XLM-RoBERTa架構的多語言情感分析模型,特別針對德語優化,在德語情感分析任務上達到87%的F1值。
文本分類 Transformers 支持多種語言
X
ssary
1,946
11
Phayathaibert Thainer
MIT
基於phayathaibert微調的泰語標記分類模型,在THAI-NER數據集上表現出色
序列標註 Transformers 其他
P
Pavarissy
329
4
Videomae Base Finetuned
基於MCG-NJU/videomae-base在未知數據集上微調的視頻理解模型,F1分數達到0.7147
視頻處理 Transformers
V
sheraz179
15
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的法語標記分類模型
序列標註 Transformers
X
huangjia
37
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的版本,主要用於序列標註任務。
大型語言模型 Transformers
X
haesun
15
0
Roberta Base Ner Demo
基於蒙古語RoBERTa-base模型微調的命名實體識別(NER)模型
序列標註 Transformers 其他
R
Buyandelger
15
0
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
基於bert-base-german-cased微調的德語文本分類模型,在評估集上表現出色
文本分類 Transformers
B
tbosse
15
0
Test
Apache-2.0
該模型是基於hfl/chinese-bert-wwm-ext在conll2003數據集上微調的版本,用於標記分類任務。
序列標註 Transformers
T
vegetable
15
0
Xlm Roberta Base Finetuned Panx It
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的標記分類模型,支持意大利語文本處理任務
序列標註 Transformers
X
RobertoMCA97
14
0
Small E Czech Finetuned Ner Wikiann
該模型是基於Seznam/small-e-czech在wikiann數據集上微調的版本,用於捷克語命名實體識別任務。
序列標註 Transformers
S
richielo
10.07k
2
Indonesian Roberta Base Emotion Classifier
MIT
基於Indo-roberta模型訓練的印尼語情感分類器,在IndoNLU EmoT數據集上訓練,用於情感分析任務。
文本分類 Transformers 其他
I
StevenLimcorn
767
14
Mobilebert Uncased Finetuned Squadv1
基於MobileBERT的輕量級問答模型,在SQuAD v1.1數據集上微調,適用於英文問答任務。
問答系統 Transformers 英語
M
mrm8488
27
1
Flair Arabic Multi Ner
Apache-2.0
這是一個基於Flair和GloVe嵌入的阿拉伯語命名實體識別模型,支持識別地點、組織機構、人物等實體類型。
序列標註 支持多種語言
F
megantosh
739
5
Finetuned Sentence Itr0 3e 05 Essays 27 02 2022 19 35 56
Apache-2.0
基於distilbert-base-uncased-finetuned-sst-2-english微調的文本分類模型,在評估集上準確率達86.38%
文本分類 Transformers
F
ali2066
15
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別(NER)模型,在未知數據集上訓練6個epoch,表現中等水平
序列標註 Transformers
B
suwani
14
0
Minilm Finetuned Emotion
MIT
該模型是基於Microsoft MiniLM架構在emotion情感分類數據集上微調的文本分類模型,在評估集上F1得分達到0.9118。
文本分類 Transformers
M
lewtun
19
0
Vit Flyswot Test
基於圖像文件夾數據集微調的視覺Transformer模型,主要用於圖像分類任務
圖像分類 Transformers
V
davanstrien
24
0
Demotest
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類 Transformers 英語
D
junzai
17
0
Distilbert Mrpc
Apache-2.0
基於distilbert-base-uncased在glue數據集上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類 Transformers
D
mattchurgin
15
0
Chinese Pretrain Mrc Roberta Wwm Ext Large
Apache-2.0
基於海量中文閱讀理解數據訓練的roberta_wwm_ext_large模型,在閱讀理解/文本分類等任務上表現顯著提升。
問答系統 Transformers 中文
C
luhua
790
84
Test Trainer To Hub
Apache-2.0
基於bert-base-uncased在GLUE數據集上微調的文本分類模型,在MRPC任務上表現出色
文本分類 Transformers
T
edbeeching
17
0
Bert Large Cased Finetuned Mrpc
Apache-2.0
基於bert-large-cased在GLUE MRPC數據集上微調的文本分類模型
文本分類 Transformers 英語
B
gchhablani
54
1
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
這是一個通過nn_pruning庫剪枝優化的問答模型,保留了50%原始權重,在SQuAD v1上微調,F1值達88.72
問答系統 Transformers 英語
B
madlag
30
0
Emotion Trained 31415
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在tweet_eval數據集上訓練,用於推文情感分類
文本分類 Transformers
E
marcolatella
16
0
Distilbert Base Uncased Finetuned Mrpc
Apache-2.0
該模型是基於DistilBERT在GLUE MRPC任務上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類 Transformers
D
anirudh21
18
0
German Sentiment Bert
MIT
專為德語文本情感分類訓練的BERT模型,支持積極/消極/中性三分類
文本分類 德語
G
oliverguhr
369.80k
61
Cs224n Squad2.0 Distilbert Base Uncased
該模型是為CS224n學生項目建立的基準模型,基於DistilBERT架構,在SQuAD2.0數據集上微調,用於問答任務。
問答系統 Transformers
C
elgeish
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基於XLM-RoBERTa基礎模型在未知數據集上微調的版本,主要用於多語言文本處理任務
序列標註 Transformers
X
MhF
14
0
Roberta Base Bne Sqac
Apache-2.0
西班牙語問答模型,基於roberta-base-bne微調,使用西班牙國家圖書館570GB文本數據預訓練
問答系統 Transformers 西班牙語
R
PlanTL-GOB-ES
507
4
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase