Bert Base Uncased Finetuned Rte Run Trial3
Apache-2.0
bert-base-uncasedをファインチューニングしたモデルで、テキスト含意認識タスクに使用され、精度は66.43%
テキスト分類
Transformers

B
BoranIsmet
59
1
Bertimbau
MIT
ブラジルポルトガル語向けに事前学習されたBERTモデルで、様々なNLPタスクで優れた性能を発揮
大規模言語モデル その他
B
tubyneto
38
1
Deberta V3 Large Finetuned Mnli
MIT
GLUE MNLIデータセットでファインチューニングされたDeBERTa-v3-largeモデル、自然言語推論タスク用、検証セット精度90%達成
テキスト分類
Transformers 英語

D
mrm8488
31
2
Bert Base Portuguese Cased
MIT
ブラジルポルトガル語向けの事前学習BERTモデルで、複数のNLPタスクにおいて最先端の性能を達成
大規模言語モデル その他
B
neuralmind
257.25k
181
Bert Base Uncased Mnli
これはbert-base-uncased事前学習モデルをベースにMultiNLIデータセットでファインチューニングされたテキスト分類モデルです
テキスト分類 英語
B
ishan
2,506
2
Nli Deberta V3 Base
Apache-2.0
microsoft/deberta-v3-baseを基に訓練されたクロスエンコーダモデルで、自然言語推論タスクに使用され、文ペア間の関係(矛盾、含意、または中立)を判断できます。
テキスト分類
Transformers 英語

N
cross-encoder
65.55k
31
Distilcamembert Base Nli
MIT
DistilCamemBERTを基にフランス語自然言語推論タスク向けにファインチューニングした軽量モデルで、推論速度はオリジナルのCamemBERTより50%高速
テキスト分類
Transformers 複数言語対応

D
cmarkea
6,327
11
Albert Base V2 Finetuned Rte
Apache-2.0
このモデルは、ALBERTの基本バージョン(albert-base-v2)をGLUEデータセットのRTEタスクで微調整したテキスト分類モデルで、主にテキスト含意認識タスクに使用されます。
テキスト分類
Transformers

A
anirudh21
15
0
Distilbert Base Uncased Finetuned Rte
Apache-2.0
このモデルはDistilBERTをGLUEデータセットのRTEタスクでファインチューニングしたテキスト分類モデルで、精度は61.73%です
テキスト分類
Transformers

D
anirudh21
20
0
Bert Base Uncased Finetuned Rte
Apache-2.0
BERT基礎モデルを基にGLUE RTEタスクで微調整したテキスト分類モデル
テキスト分類
Transformers

B
anirudh21
86
0
Nli Distilroberta Base
Apache-2.0
DistilRoBERTaベースのクロスエンコーダで、自然言語推論タスクに使用され、文ペア間の関係(矛盾、含意、中立)を判断できます。
テキスト分類 英語
N
cross-encoder
26.81k
24
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98