# DeBERTa架構

Nli Implementation
基於DeBERTa-v3-base的零樣本文本分類模型,用於判斷前提和假設之間的邏輯關係(蘊含、中性或矛盾)。
文本分類 英語
N
startificial
255
0
Ai Text Detector Academic V1.01
MIT
基於DeBERTa-v3-large微調的AI生成文本檢測模型,專為學術場景優化
文本分類 Transformers 英語
A
desklib
255
3
Camembertav2 Base
MIT
CamemBERTav2是基於2750億法語文本標記預訓練的法語語言模型,採用DebertaV2架構,在多個法語NLP任務上表現優異。
大型語言模型 Transformers 法語
C
almanach
2,972
19
Mdeberta V3 Base Sentiment
MIT
基於mDeBERTa-v3-base微調的多語言文本情感分類模型,支持跨語言情感分析
文本分類 Safetensors 其他
M
agentlans
101
1
Cyner 2.0 DeBERTa V3 Base
MIT
CyNER 2.0是專為網絡安全領域設計的命名實體識別模型,基於DeBERTa架構,可識別多種網絡安全相關實體。
序列標註 Transformers 英語
C
PranavaKailash
164
2
Zeroshot Classification De
MIT
基於DeBERTa-v3-base微調的德語零樣本分類模型,適用於多標籤分類任務
文本分類 Transformers 德語
Z
michaelp11
46
1
Kf Deberta Base
MIT
KF-DeBERTa是由KakaoBank與FNGuid聯合發佈的金融領域專用語言模型,基於DeBERTa-v2架構構建,在通用和金融領域下游任務中均表現優異。
大型語言模型 Transformers 韓語
K
kakaobank
783
46
Absolute Harmfulness Predictor Redteam Osst
MIT
基於microsoft/deberta-v3-large微調的模型,用於評估任務,具體任務類型未知
大型語言模型 Transformers
A
safepaca
114
1
Deberta V3 Japanese Xsmall
基於日語資源訓練的DeBERTa V3模型,專為日語優化,推理時不依賴形態分析器
大型語言模型 Transformers 日語
D
globis-university
96
4
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBR是一個面向巴西葡萄牙語的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型 Transformers 其他
A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPT 是一個面向歐洲葡萄牙語(葡萄牙)的基礎大語言模型,屬於BERT家族的編碼器,基於Transformer神經網絡架構,並在DeBERTa模型基礎上開發。
大型語言模型 Transformers 其他
A
PORTULAN
171
4
Deberta V2 Base Japanese Finetuned QAe
MIT
基於deberta-v2-base-japanese微調的日語問答模型,使用DDQA數據集進行微調,適用於問答任務。
問答系統 Transformers 日語
D
Mizuiro-sakura
73
3
Deberta V2 Base Japanese
基於日語維基百科、CC-100和OSCAR語料預訓練的日語DeBERTa V2基礎模型,適用於掩碼語言建模和下游任務微調。
大型語言模型 Transformers 日語
D
ku-nlp
38.93k
29
Deberta Sentence Transformer
這是一個基於DeBERTa架構的句子轉換器模型,能夠將句子和段落映射到768維的密集向量空間,適用於語義搜索和聚類等任務。
文本嵌入 Transformers
D
embedding-data
825
5
Deberta Base Japanese Wikipedia
基於日語維基百科和青空文庫文本預訓練的DeBERTa(V2)模型,適用於日語文本處理任務
大型語言模型 Transformers 日語
D
KoichiYasuoka
32
2
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
基於DeBERTa-base架構的問答模型,在SQuAD1、AQA和NewsQA數據集上聯合微調
問答系統 Transformers
D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
該模型是基於DeBERTa-base在SQuAD問答數據集上微調的版本,用於自動問答任務
問答系統 Transformers
D
stevemobs
14
0
Deberta Base Finetuned Aqa
MIT
基於microsoft/deberta-base在adversarial_qa數據集上微調的問答模型
問答系統 Transformers
D
stevemobs
15
0
Deberta Base Finetuned Squad1 Aqa
MIT
該模型是基於DeBERTa-base在SQuAD1數據集上微調後,又在adversarial_qa數據集上進一步微調的問答模型。
問答系統 Transformers
D
stevemobs
15
0
Nbme Deberta Large
MIT
基於microsoft/deberta-large微調的模型,用於特定任務處理
大型語言模型 Transformers
N
smeoni
136
0
Nli Deberta V3 Large
Apache-2.0
基於microsoft/deberta-v3-large架構的交叉編碼器模型,用於自然語言推理任務,在SNLI和MultiNLI數據集上訓練。
文本分類 Transformers 英語
N
navteca
24
3
Nli Deberta V3 Xsmall
Apache-2.0
基於microsoft/deberta-v3-xsmall訓練的交叉編碼器模型,用於自然語言推理任務,支持矛盾、蘊含和中立三種關係的判斷。
文本分類 Transformers 英語
N
navteca
1,085
1
Deberta V3 Base Goemotions
MIT
基於microsoft/deberta-v3-base微調的文本情感分類模型,在未知數據集上訓練,評估F1分數為0.4468
文本分類 Transformers
D
mrm8488
81
1
Deberta V3 Large Finetuned Mnli
MIT
在GLUE MNLI數據集上微調的DeBERTa-v3-large模型,用於自然語言推理任務,驗證集準確率達90%
文本分類 Transformers 英語
D
mrm8488
31
2
Nli Deberta V3 Large
Apache-2.0
基於DeBERTa-v3-large架構的自然語言推理模型,在SNLI和MultiNLI數據集上訓練,用於判斷句子對之間的關係。
文本分類 Transformers 英語
N
cross-encoder
203.73k
31
Nli Deberta V3 Xsmall
Apache-2.0
基於microsoft/deberta-v3-xsmall訓練的交叉編碼器模型,用於自然語言推理任務
文本分類 Transformers 英語
N
cross-encoder
16.62k
6
Nli Deberta V3 Small
Apache-2.0
基於microsoft/deberta-v3-small訓練的交叉編碼器模型,用於自然語言推理任務,支持矛盾、蘊含和中立三種關係判斷
文本分類 Transformers 英語
N
cross-encoder
2,197
10
Deberta Base Fine Tuned Ner
MIT
基於DeBERTa-base模型在conll2003數據集上微調的命名實體識別(NER)模型
序列標註 Transformers
D
geckos
456
2
Deberta V3 Large Sst2 Train 8 9
MIT
基於microsoft/deberta-v3-large模型在SST-2數據集上微調的文本分類模型
文本分類 Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
基於microsoft/deberta-v3-large模型在SST-2數據集上微調的情感分析模型
文本分類 Transformers
D
SetFit
18
0
Deberta V3 Large Sst2 Train 8 8
MIT
基於microsoft/deberta-v3-large模型在SST-2數據集上微調的情感分析模型
文本分類 Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 8 1
MIT
基於microsoft/deberta-v3-large微調的文本分類模型,在SST-2數據集上進行訓練
文本分類 Transformers
D
SetFit
17
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase