T5 Xxl True Nli Mixture
T
T5 Xxl True Nli Mixture
googleによって開発
これはT5-XXLアーキテクチャを基にした自然言語推論(NLI)モデルで、テキストペア間の含意関係('1'は含意、'0'は非含意)を予測します。
ダウンロード数 2,971
リリース時間 : 12/7/2022
モデル概要
このモデルは主に自然言語推論タスクに使用され、与えられた前提と仮説間の論理的関係(含意または非含意)を判断します。そのトレーニング方法はTRUE論文で説明されているNLIモデルと類似していますが、異なるトレーニングデータセットの組み合わせを使用しています。
モデル特徴
マルチデータセットトレーニング
SNLI、MNLI、Fever、Scitail、PAWS、VitaminCなど複数の高品質NLIデータセットを組み合わせてトレーニング
標準化された入力形式
統一された入力形式を採用:'前提:PREMISE_TEXT 仮説:HYPOTHESIS_TEXT'、使いやすさを考慮
バイナリ分類出力
簡潔なバイナリラベル(1/0)を出力し、含意関係の有無を明確に表示
モデル能力
テキスト含意判断
自然言語推論
論理的関係分析
使用事例
テキスト理解と推論
ファクトチェック
与えられた主張が既知の事実と一致するかどうかを検証
質問応答システム
候補回答が質問と含意関係にあるかどうかを判断
学術研究
NLIベンチマークテスト
自然言語推論タスクのベンチマークモデルとして
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98