D

Deberta Small Long Nli

tasksourceによって開発
DeBERTa-v3-smallモデルをベースに、コンテキスト長を1680トークンに拡張し、tasksourceデータセットでファインチューニングされた、長文自然言語推論タスクに適したモデル
ダウンロード数 40.85k
リリース時間 : 1/31/2024

モデル概要

このモデルは長文コンテキストの自然言語推論タスクに最適化されたDeBERTaの変種で、ゼロショット分類や自然言語推論など様々なタスクをサポートし、報酬モデルや分類器のファインチューニングのベースモデルとして使用可能

モデル特徴

長文コンテキスト対応
コンテキスト長を1680トークンに拡張し、長文推論タスクの処理に適している
マルチタスク学習
tasksourceデータセットで25万ステップのファインチューニングを実施し、様々なNLIタスクを網羅
ゼロショット能力
WNLIで70%の精度を達成するなど、複数タスクで強力なゼロショット性能を発揮

モデル能力

自然言語推論
ゼロショット分類
テキスト分類
マルチタスク学習

使用事例

テキスト分析
ゼロショット分類
含意関係を利用して任意のラベルでゼロショット分類を実行
WNLIなどのタスクで70%の精度を達成
論理推論
論理推論を必要とする長文タスクを処理
FOLIOなどの論理推論タスクで良好な性能
モデル開発
報酬モデル基盤
報酬モデルや分類器ファインチューニングのベースモデルとして使用可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase