Bert Tiny Finetuned Glue Rte
Apache-2.0
這是一個基於BERT-tiny架構在GLUE RTE任務上微調的文本分類模型,主要用於文本蘊含識別任務。
文本分類
Transformers

B
muhtasham
37
1
Bert Base Uncased Finetuned Rte
Apache-2.0
基於BERT基礎模型在GLUE RTE任務上微調的文本分類模型
文本分類
Transformers

B
anirudh21
86
0
Bert Base Cased Finetuned Qnli
Apache-2.0
基於bert-base-cased在GLUE QNLI數據集上微調的文本分類模型,準確率達90.99%
文本分類
Transformers 英語

B
gchhablani
1,566
2
Bert Base Uncased Finetuned Wnli
Apache-2.0
基於BERT基礎模型在GLUE WNLI任務上微調的文本分類模型
文本分類
Transformers

B
anirudh21
33
0
Bert Base Cased Finetuned Sst2
Apache-2.0
基於bert-base-cased模型在GLUE SST2數據集上微調的文本分類模型,準確率達92.3%
文本分類
Transformers 英語

B
gchhablani
236
0
Demotest
Apache-2.0
基於bert-base-uncased在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

D
junzai
17
0
Bert Base Cased Finetuned Cola
Apache-2.0
基於bert-base-cased在GLUE COLA數據集上微調的文本分類模型,用於語法正確性判斷
文本分類
Transformers 英語

B
gchhablani
14
0
BERT Of Theseus MNLI
通過漸進式模塊替換壓縮BERT的模型,在保持性能的同時減少模型複雜度
大型語言模型
B
canwenxu
31
0
Bert Base Cased Finetuned Qqp
Apache-2.0
基於bert-base-cased在GLUE QQP數據集上微調的文本分類模型,用於比較fnet-base與bert-base-cased的性能差異
文本分類
Transformers 英語

B
gchhablani
255
0
Bert Base Cased Finetuned Stsb
Apache-2.0
基於bert-base-cased在GLUE STSB數據集上微調的文本相似度計算模型
文本分類
Transformers 英語

B
gchhablani
18
1
Name
Apache-2.0
基於BERT基礎模型在GLUE數據集上微調的文本分類模型
文本分類
Transformers

N
ksmcg
15
0
Roberta Base Mnli Bc
MIT
基於RoBERTa-base模型在GLUE MNLI數據集上微調的文本分類模型,擅長自然語言推理任務
文本分類
Transformers 英語

R
mujeensung
43
0
Deberta V3 Small Finetuned Sst2
MIT
該模型是在GLUE SST2數據集上對DeBERTa v3 small進行微調的文本分類模型,在情感分析任務上表現優異。
文本分類
Transformers 英語

D
mrm8488
33
2
Albert Xlarge V2 Finetuned Wnli
Apache-2.0
該模型是基於ALBERT-xlarge-v2在GLUE的WNLI任務上微調的文本分類模型
文本分類
Transformers

A
anirudh21
31
0
Albert Base V2 Sst2
Apache-2.0
基於albert-base-v2在GLUE SST2數據集上微調的文本分類模型,用於情感分析任務
文本分類
Transformers 英語

A
Alireza1044
146
0
Albert Base V2 Mrpc
Apache-2.0
基於albert-base-v2在GLUE MRPC數據集上微調的文本分類模型
文本分類
Transformers 英語

A
Alireza1044
39
0
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98