Demo
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

D
junzai
15
0
Distilbert Base Uncased Finetuned Mnli
Apache-2.0
該模型是基於distilbert-base-uncased在GLUE的MNLI任務上微調的文本分類模型,主要用於自然語言推理任務。
文本分類
Transformers

D
blizrys
23
0
Albert Large V2 Finetuned Rte
Apache-2.0
該模型是基於ALBERT-large-v2在GLUE RTE任務上微調的文本分類模型,用於識別文本蘊含關係。
文本分類
Transformers

A
anirudh21
22
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於DistilBERT的輕量級文本分類模型,在GLUE的CoLA任務上微調,用於語法可接受性判斷
文本分類
Transformers

D
jpabbuehl
18
0
Navid Test Bert
Apache-2.0
基於bert-base-cased在glue數據集上微調的文本分類模型,擅長語法可接受性判斷任務
文本分類
Transformers

N
navsad
15
0
Roberta Base RTE
基於roberta-base架構,通過TextAttack框架在GLUE數據集上微調的序列分類模型
文本分類
R
textattack
29
2
Distilbert Base Uncased Finetuned Rte
Apache-2.0
該模型是基於DistilBERT在GLUE數據集RTE任務上微調的文本分類模型,準確率為61.73%
文本分類
Transformers

D
anirudh21
20
0
Fnet Base Finetuned Qqp
Apache-2.0
該模型是在GLUE QQP數據集上對google/fnet-base進行微調的版本,用於文本分類任務,特別針對Quora問題對是否重複的問題。
文本分類
Transformers 英語

F
gchhablani
14
0
Fnet Large Finetuned Cola Copy
Apache-2.0
基於google/fnet-large在GLUE COLA數據集上微調的文本分類模型
文本分類
Transformers 英語

F
gchhablani
13
0
Fnet Base Finetuned Sst2
Apache-2.0
基於谷歌FNet架構在SST-2情感分析數據集上微調的文本分類模型
文本分類 英語
F
gchhablani
16
1
Albert Base V2 Finetuned Rte
Apache-2.0
該模型是基於ALBERT基礎版本(albert-base-v2)在GLUE數據集RTE任務上微調的文本分類模型,主要用於文本蘊含識別任務。
文本分類
Transformers

A
anirudh21
15
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
該模型是基於DistilBERT基礎模型在GLUE的CoLA任務上微調的文本分類模型,用於判斷英語句子的語法正確性。
文本分類
Transformers

D
hchc
17
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於distilbert-base-uncased在glue數據集上微調的文本分類模型,用於句子可接受性判斷任務
文本分類
Transformers

D
jimmyliao
15
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
該模型是基於DistilBERT在GLUE的CoLA數據集上微調的文本分類模型,用於判斷英語句子的語法正確性。
文本分類
Transformers

D
hcjang1987
14
0
Fnet Base Finetuned Cola
Apache-2.0
基於google/fnet-base在GLUE COLA數據集上微調的文本分類模型,用於評估FNet與BERT架構的性能對比
文本分類
Transformers 英語

F
gchhablani
15
0
Distilbert Mrpc
Apache-2.0
基於distilbert-base-uncased在glue數據集上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類
Transformers

D
mattchurgin
15
0
Distilbert Base Uncased Finetuned Mrpc
Apache-2.0
該模型是基於DistilBERT在GLUE MRPC任務上微調的文本分類模型,用於判斷句子對是否語義等價
文本分類
Transformers

D
anirudh21
18
0
Fnet Large Finetuned Cola Copy2
Apache-2.0
基於FNet架構的文本分類模型,在GLUE COLA數據集上微調,用於語法正確性判斷
文本分類
Transformers 英語

F
gchhablani
15
0
Roberta Base CoLA
基於GLUE數據集微調的分類模型,適用於自然語言處理任務
文本分類
R
textattack
20.76k
17
Distilbert Sst2
Apache-2.0
基於distilbert-base-uncased在GLUE數據集上微調的文本分類模型
文本分類
Transformers

D
mattchurgin
15
0
Bert Base Uncased Finetuned Sst2
Apache-2.0
基於BERT基礎模型在GLUE數據集SST-2任務上微調的情感分析模型
文本分類
Transformers

B
doyoungkim
36
2
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於DistilBERT的輕量級文本分類模型,在GLUE的CoLA任務上微調,用於語法可接受性判斷
文本分類
Transformers

D
JBNLRY
17
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於DistilBERT的文本分類模型,在GLUE數據集CoLA任務上微調,用於判斷句子語法正確性
文本分類
Transformers

D
BearThreat
15
0
Distilbert Base Uncased Finetuned Cola
Apache-2.0
基於DistilBERT的輕量級文本分類模型,在GLUE的CoLA任務上微調,用於語法可接受性判斷
文本分類
Transformers

D
Jungwoo
16
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98