# テキスト推論
Deberta V3 Large Mnli Fever Anli Ling Wanli Binary
MIT
このモデルはDeBERTa-v3-largeアーキテクチャに基づくゼロショット分類モデルで、主に5つのNLIデータセットでトレーニングされており、元のNLIタスクに従うタスクに適しています。
テキスト分類
Transformers English

D
MoritzLaurer
30
0
Deberta V3 Base Mnli Fever Anli Ling Wanli Binary
MIT
このモデルは5つのNLIデータセットでトレーニングされたテキスト分類モデルで、主にゼロショット分類タスクに使用され、比較ベンチマークとして利用されます。
テキスト分類
Transformers English

D
MoritzLaurer
20
0
T5 Small Finetuned Contradiction
Apache-2.0
T5-smallアーキテクチャをSNLIデータセットでファインチューニングしたテキスト生成モデルで、矛盾関係の識別と要約生成タスクに特化
テキスト生成
Transformers

T
domenicrosati
21
2
Ko Gpt Trinity 1.2B V0.5
GPT-3アーキテクチャに基づく12億パラメータの韓国語Transformerモデルで、SKテレコムが開発し、主に韓国語テキスト生成と理解タスクに使用されます。
大規模言語モデル
Transformers Korean

K
skt
1,294
44
Albert Large V2 Finetuned Rte
Apache-2.0
このモデルは、ALBERT-large-v2をベースにGLUE RTEタスクで微調整されたテキスト分類モデルで、テキストの含意関係を識別するために使用されます。
テキスト分類
Transformers

A
anirudh21
22
0
Qnli Distilroberta Base
Apache-2.0
このモデルはdistilroberta-baseでトレーニングされたクロスエンコーダーで、特定の質問に与えられた段落が答えられるかどうかを判断するために使用され、GLUE QNLIデータセットでトレーニングされています。
質問応答システム English
Q
cross-encoder
1,526
0
Distilbart Mnli 12 3
DistilBart-MNLI は bart-large-mnli の蒸留バージョンで、教師なし蒸留技術を採用し、性能はオリジナルモデルに近いがより軽量です。
テキスト分類
D
valhalla
8,791
19
Distilbart Mnli 12 9
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量版で、高い精度を維持しながらモデルの複雑さを減らしています。
テキスト分類
D
valhalla
8,343
12
Distilbart Mnli 12 6
DistilBart-MNLI は BART-large-MNLI の蒸留バージョンで、教師なし蒸留技術を採用し、高性能を維持しながらモデルサイズを大幅に削減しています。
テキスト分類
D
valhalla
49.63k
11
Distilbart Mnli 12 1
DistilBart - MNLIは、教師なし蒸留技術を用いてbart - large - mnliから蒸留された軽量化バージョンで、高い精度を維持しながらモデルサイズを小さくしています。
テキスト分類
D
valhalla
217.48k
52
V3 Large Mnli
MIT
DeBERTa-v3-largeをMNLIタスクでファインチューニングしたモデルで、GLUE MNLI評価セットで91.75%の精度を達成
テキスト分類
Transformers English

V
NDugar
61
1
Roberta Base Bne Finetuned Hate Speech Offensive Spanish
Apache-2.0
このモデルは、BSC-TeMU/roberta-base-bneをMNLIデータセットで微調整したバージョンで、主に自然言語推論タスクに使用されます。
テキスト分類
Transformers

R
JonatanGk
240
2
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98