Nli Entailment Verifier Xxl
flan - t5 - xxlを微調整したNLIモデルで、前提が仮説を支持するかどうかを検証するために使用され、特に複数文前提のシナリオに最適化されています。
ダウンロード数 164
リリース時間 : 1/11/2024
モデル概要
このモデルは、自然言語推論(NLI)タスクに特化しており、与えられた前提が特定の仮説を支持するかどうかを検証でき、思考連鎖推論などの複雑なシナリオに適しています。複数文前提に対して最適化された訓練が行われています。
モデル特徴
複数文前提の最適化
複数文前提のシナリオに特化して訓練されており、複雑な推論タスクに適しています。
量子化サポート
4ビット/8ビット量子化をサポートし、GPUメモリの使用量を削減します。
ソート目標の微調整
ソート目標を使用して微調整され、仮説ペアから最も支持される仮説を選択できます。
モデル能力
自然言語推論
含意検証
論理関係判断
思考連鎖推論のサポート
使用事例
自然言語処理
学術論文の推論検証
研究論文の結論が前提によって支持されているかどうかを検証します。
論理的な支持度の定量的なスコアを提供できます。
法律文書の分析
法律条文と案件事実の間の論理関係を分析します。
法律条文が特定の案件の結論を支持するかどうかを判断します。
教育評価
学生の解答の採点
学生の解答が問題の前提によって十分に支持されているかどうかを評価します。
解答の論理的な正しさの定量的なスコアを提供します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98