Deberta V2 Xlarge Mnli
DeBERTa-v3 XL 是一個基於Transformer架構的大規模預訓練語言模型,專門針對自然語言推理任務進行了微調。
Downloads 38
Release Time : 3/2/2022
Model Overview
該模型是DeBERTa-v3的XL版本,經過MNLI(多類型自然語言推理)任務的微調,擅長判斷兩個句子之間的邏輯關係(蘊含/矛盾/中立)。
Model Features
增強的注意力機制
採用解耦注意力機制,能更好地建模文本中的位置和內容關係
MNLI任務優化
專門針對多類型自然語言推理任務進行微調,在文本邏輯關係判斷上表現優異
大規模預訓練
基於大規模語料庫預訓練,具有強大的語言理解能力
Model Capabilities
文本語義理解
邏輯關係推理
零樣本分類
Use Cases
文本分析
合同條款一致性檢查
自動判斷合同不同條款之間是否存在矛盾
可快速識別潛在的法律風險點
客服對話分析
判斷客戶問題與客服回答是否邏輯一致
提高服務質量監控效率
教育評估
閱讀理解題自動評分
評估學生答案與標準答案的邏輯一致性
減輕教師評分工作量
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 Chinese
R
uer
2,694
98