# DeBERTaアーキテクチャ

Nli Implementation
DeBERTa-v3-baseを基にしたゼロショットテキスト分類モデルで、前提と仮説間の論理的関係(含意、中立、矛盾)を判断します。
テキスト分類 Safetensors 英語
N
startificial
255
0
Ai Text Detector Academic V1.01
MIT
DeBERTa-v3-largeをファインチューニングしたAI生成テキスト検出モデルで、学術シーンに最適化されています
テキスト分類 Transformers 英語
A
desklib
255
3
Camembertav2 Base
MIT
CamemBERTav2は2750億のフランス語テキストトークンで事前学習されたフランス語言語モデルで、DebertaV2アーキテクチャを採用し、複数のフランス語NLPタスクで優れた性能を発揮します。
大規模言語モデル Transformers フランス語
C
almanach
2,972
19
Mdeberta V3 Base Sentiment
MIT
mDeBERTa-v3-baseをファインチューニングした多言語テキスト感情分類モデルで、言語間感情分析をサポート
テキスト分類 Safetensors その他
M
agentlans
101
1
Cyner 2.0 DeBERTa V3 Base
MIT
CyNER 2.0はサイバーセキュリティ分野専用に設計された固有表現認識モデルで、DeBERTaアーキテクチャに基づき、様々なサイバーセキュリティ関連エンティティを識別できます。
シーケンスラベリング Transformers 英語
C
PranavaKailash
164
2
Zeroshot Classification De
MIT
DeBERTa-v3-baseをファインチューニングしたドイツ語ゼロショット分類モデルで、マルチラベル分類タスクに適しています
テキスト分類 Transformers ドイツ語
Z
michaelp11
46
1
Kf Deberta Base
MIT
KF-DeBERTaはKakaoBankとFNGuidが共同でリリースした金融分野専用の言語モデルで、DeBERTa-v2アーキテクチャを基に構築されており、汎用および金融分野の下流タスクで優れた性能を発揮します。
大規模言語モデル Transformers 韓国語
K
kakaobank
783
46
Absolute Harmfulness Predictor Redteam Osst
MIT
microsoft/deberta-v3-largeをベースに微調整されたモデルで、評価タスクに使用されます。具体的なタスクタイプは不明です。
大規模言語モデル Transformers
A
safepaca
114
1
Deberta V3 Japanese Xsmall
日本語リソースで訓練されたDeBERTa V3モデルで、日本語に最適化されており、推論時に形態素解析器に依存しません
大規模言語モデル Transformers 日本語
D
globis-university
96
4
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBRはブラジルポルトガル語向けの基礎大規模言語モデルで、BERTファミリーのエンコーダに属し、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されました。
大規模言語モデル Transformers その他
A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPTは、ヨーロッパポルトガル語(ポルトガル)向けの基礎大規模言語モデルで、BERTファミリーのエンコーダーであり、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されています。
大規模言語モデル Transformers その他
A
PORTULAN
171
4
Deberta V2 Base Japanese Finetuned QAe
MIT
deberta-v2-base-japaneseをファインチューニングした日本語Q&Aモデルで、DDQAデータセットを使用してファインチューニングされており、Q&Aタスクに適しています。
質問応答システム Transformers 日本語
D
Mizuiro-sakura
73
3
Deberta V2 Base Japanese
日本語ウィキペディア、CC-100、OSCORPUSで事前学習された日本語DeBERTa V2ベースモデル。マスキング言語モデリングや下流タスクのファインチューニングに適しています。
大規模言語モデル Transformers 日本語
D
ku-nlp
38.93k
29
Deberta Sentence Transformer
これはDeBERTaアーキテクチャに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み Transformers
D
embedding-data
825
5
Deberta Base Japanese Wikipedia
日本語ウィキペディアと青空文庫テキストで事前学習されたDeBERTa(V2)モデルで、日本語テキスト処理タスクに適しています
大規模言語モデル Transformers 日本語
D
KoichiYasuoka
32
2
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
DeBERTa-baseアーキテクチャに基づく質問応答モデルで、SQuAD1、AQA、NewsQAデータセットで共同ファインチューニングされています
質問応答システム Transformers
D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
このモデルはDeBERTa-baseをSQuAD質問応答データセットでファインチューニングしたバージョンで、自動質問応答タスクに使用されます
質問応答システム Transformers
D
stevemobs
14
0
Deberta Base Finetuned Aqa
MIT
microsoft/deberta-baseをadversarial_qaデータセットで微調整した質問応答モデル
質問応答システム Transformers
D
stevemobs
15
0
Deberta Base Finetuned Squad1 Aqa
MIT
このモデルは、DeBERTa-baseをSQuAD1データセットで微調整した後、adversarial_qaデータセットでさらに微調整した質問応答モデルです。
質問応答システム Transformers
D
stevemobs
15
0
Nbme Deberta Large
MIT
microsoft/deberta-largeをベースにファインチューニングしたモデルで、特定タスク処理用
大規模言語モデル Transformers
N
smeoni
136
0
Nli Deberta V3 Large
Apache-2.0
microsoft/deberta-v3-largeアーキテクチャに基づくクロスエンコーダーモデルで、自然言語推論タスク用にSNLIおよびMultiNLIデータセットでトレーニングされています。
テキスト分類 Transformers 英語
N
navteca
24
3
Nli Deberta V3 Xsmall
Apache-2.0
microsoft/deberta-v3-xsmallで訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、矛盾、含意、中立の3つの関係の判断をサポートします。
テキスト分類 Transformers 英語
N
navteca
1,085
1
Deberta V3 Large Finetuned Mnli
MIT
GLUE MNLIデータセットでファインチューニングされたDeBERTa-v3-largeモデル、自然言語推論タスク用、検証セット精度90%達成
テキスト分類 Transformers 英語
D
mrm8488
31
2
Deberta V3 Base Goemotions
MIT
microsoft/deberta-v3-baseを微調整したテキスト感情分類モデルで、未知のデータセットでトレーニングされ、評価F1スコアは0.4468
テキスト分類 Transformers
D
mrm8488
81
1
Nli Deberta V3 Small
Apache-2.0
microsoft/deberta-v3-smallを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、矛盾、含意、中立の3種類の関係判断をサポート
テキスト分類 Transformers 英語
N
cross-encoder
2,197
10
Nli Deberta V3 Xsmall
Apache-2.0
microsoft/deberta-v3-xsmallを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用
テキスト分類 Transformers 英語
N
cross-encoder
16.62k
6
Nli Deberta V3 Large
Apache-2.0
DeBERTa-v3-largeアーキテクチャに基づく自然言語推論モデルで、SNLIとMultiNLIデータセットで訓練され、文ペア間の関係を判断するために使用されます。
テキスト分類 Transformers 英語
N
cross-encoder
203.73k
31
Deberta Base Fine Tuned Ner
MIT
conll2003データセットでファインチューニングされたDeBERTa-baseモデルに基づく固有表現認識(NER)モデル
シーケンスラベリング Transformers
D
geckos
456
2
Deberta V3 Large Sst2 Train 8 1
MIT
microsoft/deberta-v3-largeをベースに微調整されたテキスト分類モデルで、SST-2データセットで訓練されました。
テキスト分類 Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 8 9
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットでファインチューニングしたテキスト分類モデル
テキスト分類 Transformers
D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットで微調整した感情分析モデル
テキスト分類 Transformers
D
SetFit
18
0
Deberta V3 Large Sst2 Train 8 8
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットでファインチューニングした感情分析モデル
テキスト分類 Transformers
D
SetFit
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase