Nli Implementation
DeBERTa-v3-baseを基にしたゼロショットテキスト分類モデルで、前提と仮説間の論理的関係(含意、中立、矛盾)を判断します。
テキスト分類
Safetensors 英語
N
startificial
255
0
Ai Text Detector Academic V1.01
MIT
DeBERTa-v3-largeをファインチューニングしたAI生成テキスト検出モデルで、学術シーンに最適化されています
テキスト分類
Transformers 英語

A
desklib
255
3
Camembertav2 Base
MIT
CamemBERTav2は2750億のフランス語テキストトークンで事前学習されたフランス語言語モデルで、DebertaV2アーキテクチャを採用し、複数のフランス語NLPタスクで優れた性能を発揮します。
大規模言語モデル
Transformers フランス語

C
almanach
2,972
19
Mdeberta V3 Base Sentiment
MIT
mDeBERTa-v3-baseをファインチューニングした多言語テキスト感情分類モデルで、言語間感情分析をサポート
テキスト分類
Safetensors その他
M
agentlans
101
1
Cyner 2.0 DeBERTa V3 Base
MIT
CyNER 2.0はサイバーセキュリティ分野専用に設計された固有表現認識モデルで、DeBERTaアーキテクチャに基づき、様々なサイバーセキュリティ関連エンティティを識別できます。
シーケンスラベリング
Transformers 英語

C
PranavaKailash
164
2
Zeroshot Classification De
MIT
DeBERTa-v3-baseをファインチューニングしたドイツ語ゼロショット分類モデルで、マルチラベル分類タスクに適しています
テキスト分類
Transformers ドイツ語

Z
michaelp11
46
1
Kf Deberta Base
MIT
KF-DeBERTaはKakaoBankとFNGuidが共同でリリースした金融分野専用の言語モデルで、DeBERTa-v2アーキテクチャを基に構築されており、汎用および金融分野の下流タスクで優れた性能を発揮します。
大規模言語モデル
Transformers 韓国語

K
kakaobank
783
46
Absolute Harmfulness Predictor Redteam Osst
MIT
microsoft/deberta-v3-largeをベースに微調整されたモデルで、評価タスクに使用されます。具体的なタスクタイプは不明です。
大規模言語モデル
Transformers

A
safepaca
114
1
Deberta V3 Japanese Xsmall
日本語リソースで訓練されたDeBERTa V3モデルで、日本語に最適化されており、推論時に形態素解析器に依存しません
大規模言語モデル
Transformers 日本語

D
globis-university
96
4
Albertina 100m Portuguese Ptbr Encoder
MIT
Albertina 100M PTBRはブラジルポルトガル語向けの基礎大規模言語モデルで、BERTファミリーのエンコーダに属し、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されました。
大規模言語モデル
Transformers その他

A
PORTULAN
131
7
Albertina 100m Portuguese Ptpt Encoder
MIT
Albertina 100M PTPTは、ヨーロッパポルトガル語(ポルトガル)向けの基礎大規模言語モデルで、BERTファミリーのエンコーダーであり、Transformerニューラルネットワークアーキテクチャに基づき、DeBERTaモデルをベースに開発されています。
大規模言語モデル
Transformers その他

A
PORTULAN
171
4
Deberta V2 Base Japanese Finetuned QAe
MIT
deberta-v2-base-japaneseをファインチューニングした日本語Q&Aモデルで、DDQAデータセットを使用してファインチューニングされており、Q&Aタスクに適しています。
質問応答システム
Transformers 日本語

D
Mizuiro-sakura
73
3
Deberta V2 Base Japanese
日本語ウィキペディア、CC-100、OSCORPUSで事前学習された日本語DeBERTa V2ベースモデル。マスキング言語モデリングや下流タスクのファインチューニングに適しています。
大規模言語モデル
Transformers 日本語

D
ku-nlp
38.93k
29
Deberta Sentence Transformer
これはDeBERTaアーキテクチャに基づく文変換器モデルで、文や段落を768次元の密集ベクトル空間にマッピングでき、意味検索やクラスタリングなどのタスクに適しています。
テキスト埋め込み
Transformers

D
embedding-data
825
5
Deberta Base Japanese Wikipedia
日本語ウィキペディアと青空文庫テキストで事前学習されたDeBERTa(V2)モデルで、日本語テキスト処理タスクに適しています
大規模言語モデル
Transformers 日本語

D
KoichiYasuoka
32
2
Deberta Base Combined Squad1 Aqa And Newsqa
MIT
DeBERTa-baseアーキテクチャに基づく質問応答モデルで、SQuAD1、AQA、NewsQAデータセットで共同ファインチューニングされています
質問応答システム
Transformers

D
stevemobs
15
0
Deberta Base Finetuned Aqa Squad1
MIT
このモデルはDeBERTa-baseをSQuAD質問応答データセットでファインチューニングしたバージョンで、自動質問応答タスクに使用されます
質問応答システム
Transformers

D
stevemobs
14
0
Deberta Base Finetuned Aqa
MIT
microsoft/deberta-baseをadversarial_qaデータセットで微調整した質問応答モデル
質問応答システム
Transformers

D
stevemobs
15
0
Deberta Base Finetuned Squad1 Aqa
MIT
このモデルは、DeBERTa-baseをSQuAD1データセットで微調整した後、adversarial_qaデータセットでさらに微調整した質問応答モデルです。
質問応答システム
Transformers

D
stevemobs
15
0
Nbme Deberta Large
MIT
microsoft/deberta-largeをベースにファインチューニングしたモデルで、特定タスク処理用
大規模言語モデル
Transformers

N
smeoni
136
0
Nli Deberta V3 Large
Apache-2.0
microsoft/deberta-v3-largeアーキテクチャに基づくクロスエンコーダーモデルで、自然言語推論タスク用にSNLIおよびMultiNLIデータセットでトレーニングされています。
テキスト分類
Transformers 英語

N
navteca
24
3
Nli Deberta V3 Xsmall
Apache-2.0
microsoft/deberta-v3-xsmallで訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、矛盾、含意、中立の3つの関係の判断をサポートします。
テキスト分類
Transformers 英語

N
navteca
1,085
1
Deberta V3 Large Finetuned Mnli
MIT
GLUE MNLIデータセットでファインチューニングされたDeBERTa-v3-largeモデル、自然言語推論タスク用、検証セット精度90%達成
テキスト分類
Transformers 英語

D
mrm8488
31
2
Deberta V3 Base Goemotions
MIT
microsoft/deberta-v3-baseを微調整したテキスト感情分類モデルで、未知のデータセットでトレーニングされ、評価F1スコアは0.4468
テキスト分類
Transformers

D
mrm8488
81
1
Nli Deberta V3 Small
Apache-2.0
microsoft/deberta-v3-smallを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、矛盾、含意、中立の3種類の関係判断をサポート
テキスト分類
Transformers 英語

N
cross-encoder
2,197
10
Nli Deberta V3 Xsmall
Apache-2.0
microsoft/deberta-v3-xsmallを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用
テキスト分類
Transformers 英語

N
cross-encoder
16.62k
6
Nli Deberta V3 Large
Apache-2.0
DeBERTa-v3-largeアーキテクチャに基づく自然言語推論モデルで、SNLIとMultiNLIデータセットで訓練され、文ペア間の関係を判断するために使用されます。
テキスト分類
Transformers 英語

N
cross-encoder
203.73k
31
Deberta Base Fine Tuned Ner
MIT
conll2003データセットでファインチューニングされたDeBERTa-baseモデルに基づく固有表現認識(NER)モデル
シーケンスラベリング
Transformers

D
geckos
456
2
Deberta V3 Large Sst2 Train 8 1
MIT
microsoft/deberta-v3-largeをベースに微調整されたテキスト分類モデルで、SST-2データセットで訓練されました。
テキスト分類
Transformers

D
SetFit
17
0
Deberta V3 Large Sst2 Train 8 9
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットでファインチューニングしたテキスト分類モデル
テキスト分類
Transformers

D
SetFit
17
0
Deberta V3 Large Sst2 Train 16 4
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットで微調整した感情分析モデル
テキスト分類
Transformers

D
SetFit
18
0
Deberta V3 Large Sst2 Train 8 8
MIT
microsoft/deberta-v3-largeモデルをSST-2データセットでファインチューニングした感情分析モデル
テキスト分類
Transformers

D
SetFit
17
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98