D

Deberta Base Long Nli

由tasksource開發
基於DeBERTa-v3-base模型,上下文長度擴展至1280,並在tasksource數據集上進行了25萬步的微調,專注於自然語言推理和零樣本分類任務。
下載量 541
發布時間 : 6/28/2024

模型概述

該模型在多項NLI任務上展現出強大的零樣本驗證性能,可用於基於蘊含關係的任意標籤零樣本分類、自然語言推理以及在新任務上的進一步微調。

模型特點

長文本處理能力
上下文長度擴展至1280,特別適合處理長文本NLI任務
多任務訓練
在tasksource的多樣化NLI數據集上進行訓練,涵蓋邏輯推理、事實核查等多種任務類型
強大的零樣本能力
在WNLI等任務上達到70%準確率,無需特定任務微調即可獲得良好表現

模型能力

零樣本分類
自然語言推理
邏輯推理
事實核查
文本蘊含判斷

使用案例

文本分類
零樣本情感分析
無需訓練即可對文本進行情感分類
在chatbot_arena_conversations數據集上達到72.2%準確率
邏輯推理
邏輯問題解答
解決需要邏輯推理的NLI問題
在FOLIO數據集上達到61.8%準確率
事實核查
文檔級事實核查
處理長文檔的事實核查任務
在doc-nli數據集上達到90%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase