Sage V1.1.0
MIT
基於FRED-T5-1.7B訓練的俄語拼寫檢查模型,可糾正拼寫、標點和大小寫錯誤
文本生成
Transformers 其他

S
ai-forever
668
6
XLM RoBERTa German Sentiment
Apache-2.0
基於XLM-RoBERTa架構的多語言情感分析模型,特別針對德語優化,在德語情感分析任務上達到87%的F1值。
文本分類
Transformers 支持多種語言

X
ssary
1,946
11
Phayathaibert Thainer
MIT
基於phayathaibert微調的泰語標記分類模型,在THAI-NER數據集上表現出色
序列標註
Transformers 其他

P
Pavarissy
329
4
Videomae Base Finetuned
基於MCG-NJU/videomae-base在未知數據集上微調的視頻理解模型,F1分數達到0.7147
視頻處理
Transformers

V
sheraz179
15
0
Xlm Roberta Base Finetuned Panx Fr
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的法語標記分類模型
序列標註
Transformers

X
huangjia
37
0
Xlm Roberta Base Finetuned Panx De Fr
MIT
基於XLM-RoBERTa-base模型在德語和法語數據集上微調的版本,主要用於序列標註任務。
大型語言模型
Transformers

X
haesun
15
0
Roberta Base Ner Demo
基於蒙古語RoBERTa-base模型微調的命名實體識別(NER)模型
序列標註
Transformers 其他

R
Buyandelger
15
0
Bert Base German Cased Finetuned Subj V6 7Epoch
MIT
基於bert-base-german-cased微調的德語文本分類模型,在評估集上表現出色
文本分類
Transformers

B
tbosse
15
0
Test
Apache-2.0
該模型是基於hfl/chinese-bert-wwm-ext在conll2003數據集上微調的版本,用於標記分類任務。
序列標註
Transformers

T
vegetable
15
0
Xlm Roberta Base Finetuned Panx It
MIT
基於XLM-RoBERTa-base模型在xtreme數據集上微調的標記分類模型,支持意大利語文本處理任務
序列標註
Transformers

X
RobertoMCA97
14
0
Small E Czech Finetuned Ner Wikiann
該模型是基於Seznam/small-e-czech在wikiann數據集上微調的版本,用於捷克語命名實體識別任務。
序列標註
Transformers

S
richielo
10.07k
2
Indonesian Roberta Base Emotion Classifier
MIT
基於Indo-roberta模型訓練的印尼語情感分類器,在IndoNLU EmoT數據集上訓練,用於情感分析任務。
文本分類
Transformers 其他

I
StevenLimcorn
767
14
Mobilebert Uncased Finetuned Squadv1
基於MobileBERT的輕量級問答模型,在SQuAD v1.1數據集上微調,適用於英文問答任務。
問答系統
Transformers 英語

M
mrm8488
27
1
Flair Arabic Multi Ner
Apache-2.0
這是一個基於Flair和GloVe嵌入的阿拉伯語命名實體識別模型,支持識別地點、組織機構、人物等實體類型。
序列標註 支持多種語言
F
megantosh
739
5
Finetuned Sentence Itr0 3e 05 Essays 27 02 2022 19 35 56
Apache-2.0
基於distilbert-base-uncased-finetuned-sst-2-english微調的文本分類模型,在評估集上準確率達86.38%
文本分類
Transformers

F
ali2066
15
0
BERT NER Ep6 PAD 50 Finetuned Ner
Apache-2.0
基於bert-base-cased微調的命名實體識別(NER)模型,在未知數據集上訓練6個epoch,表現中等水平
序列標註
Transformers

B
suwani
14
0
Minilm Finetuned Emotion
MIT
該模型是基於Microsoft MiniLM架構在emotion情感分類數據集上微調的文本分類模型,在評估集上F1得分達到0.9118。
文本分類
Transformers

M
lewtun
19
0
Vit Flyswot Test
基於圖像文件夾數據集微調的視覺Transformer模型,主要用於圖像分類任務
圖像分類
Transformers

V
davanstrien
24
0
Demotest
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

D
junzai
17
0
Distilbert Mrpc
Apache-2.0
基於distilbert-base-uncased在glue數據集上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類
Transformers

D
mattchurgin
15
0
Chinese Pretrain Mrc Roberta Wwm Ext Large
Apache-2.0
基於海量中文閱讀理解數據訓練的roberta_wwm_ext_large模型,在閱讀理解/文本分類等任務上表現顯著提升。
問答系統
Transformers 中文

C
luhua
790
84
Test Trainer To Hub
Apache-2.0
基於bert-base-uncased在GLUE數據集上微調的文本分類模型,在MRPC任務上表現出色
文本分類
Transformers

T
edbeeching
17
0
Bert Large Cased Finetuned Mrpc
Apache-2.0
基於bert-large-cased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

B
gchhablani
54
1
Bert Base Uncased Squadv1 X1.84 F88.7 D36 Hybrid Filled V1
MIT
這是一個通過nn_pruning庫剪枝優化的問答模型,保留了50%原始權重,在SQuAD v1上微調,F1值達88.72
問答系統
Transformers 英語

B
madlag
30
0
Emotion Trained 31415
Apache-2.0
基於distilbert-base-uncased微調的情感分析模型,在tweet_eval數據集上訓練,用於推文情感分類
文本分類
Transformers

E
marcolatella
16
0
Distilbert Base Uncased Finetuned Mrpc
Apache-2.0
該模型是基於DistilBERT在GLUE MRPC任務上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類
Transformers

D
anirudh21
18
0
German Sentiment Bert
MIT
專為德語文本情感分類訓練的BERT模型,支持積極/消極/中性三分類
文本分類 德語
G
oliverguhr
369.80k
61
Cs224n Squad2.0 Distilbert Base Uncased
該模型是為CS224n學生項目建立的基準模型,基於DistilBERT架構,在SQuAD2.0數據集上微調,用於問答任務。
問答系統
Transformers

C
elgeish
15
0
Xlm Roberta Base Finetuned Panx All
MIT
基於XLM-RoBERTa基礎模型在未知數據集上微調的版本,主要用於多語言文本處理任務
序列標註
Transformers

X
MhF
14
0
Roberta Base Bne Sqac
Apache-2.0
西班牙語問答模型,基於roberta-base-bne微調,使用西班牙國家圖書館570GB文本數據預訓練
問答系統
Transformers 西班牙語

R
PlanTL-GOB-ES
507
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98