# テキスト含意認識

Bert Base Uncased Finetuned Rte Run Trial3
Apache-2.0
bert-base-uncasedをファインチューニングしたモデルで、テキスト含意認識タスクに使用され、精度は66.43%
テキスト分類 Transformers
B
BoranIsmet
59
1
Bertimbau
MIT
ブラジルポルトガル語向けに事前学習されたBERTモデルで、様々なNLPタスクで優れた性能を発揮
大規模言語モデル その他
B
tubyneto
38
1
Deberta V3 Large Finetuned Mnli
MIT
GLUE MNLIデータセットでファインチューニングされたDeBERTa-v3-largeモデル、自然言語推論タスク用、検証セット精度90%達成
テキスト分類 Transformers 英語
D
mrm8488
31
2
Bert Base Portuguese Cased
MIT
ブラジルポルトガル語向けの事前学習BERTモデルで、複数のNLPタスクにおいて最先端の性能を達成
大規模言語モデル その他
B
neuralmind
257.25k
181
Bert Base Uncased Mnli
これはbert-base-uncased事前学習モデルをベースにMultiNLIデータセットでファインチューニングされたテキスト分類モデルです
テキスト分類 英語
B
ishan
2,506
2
Nli Deberta V3 Base
Apache-2.0
microsoft/deberta-v3-baseを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、文ペア間の関係(矛盾、含意、または中立)を判断できます。
テキスト分類 Transformers 英語
N
cross-encoder
65.55k
31
Distilcamembert Base Nli
MIT
DistilCamemBERTを基にフランス語自然言語推論タスク向けにファインチューニングした軽量モデルで、推論速度はオリジナルのCamemBERTより50%高速
テキスト分類 Transformers 複数言語対応
D
cmarkea
6,327
11
Albert Base V2 Finetuned Rte
Apache-2.0
このモデルは、ALBERTの基本バージョン(albert-base-v2)をGLUEデータセットのRTEタスクで微調整したテキスト分類モデルで、主にテキスト含意認識タスクに使用されます。
テキスト分類 Transformers
A
anirudh21
15
0
Distilbert Base Uncased Finetuned Rte
Apache-2.0
このモデルはDistilBERTをGLUEデータセットのRTEタスクでファインチューニングしたテキスト分類モデルで、精度は61.73%です
テキスト分類 Transformers
D
anirudh21
20
0
Bert Base Uncased Finetuned Rte
Apache-2.0
BERT基礎モデルを基にGLUE RTEタスクで微調整したテキスト分類モデル
テキスト分類 Transformers
B
anirudh21
86
0
Nli Distilroberta Base
Apache-2.0
DistilRoBERTaベースのクロスエンコーダで、自然言語推論タスクに使用され、文ペア間の関係(矛盾、含意、中立)を判断できます。
テキスト分類 英語
N
cross-encoder
26.81k
24
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase