R

Roberta Large Semeval2012 V2 Mask Prompt E Nce

由research-backup開發
基於RoBERTa-large微調的關係理解模型,專注於詞彙關係分類和類比問題解答
下載量 16
發布時間 : 8/18/2022

模型概述

該模型是基於RoBERTa-large架構,在SemEval2012關係相似性數據集上微調而成,主要用於關係理解任務,包括詞彙關係分類和類比問題解答。

模型特點

高效的關係理解
在多個關係理解任務上表現出色,特別是在詞彙關係分類任務中取得高F1分數
多任務適應性
能夠處理多種關係理解任務,包括關係映射、詞彙關係分類和類比問題解答
基於RoBERTa-large的微調
利用強大的RoBERTa-large預訓練模型作為基礎,通過特定任務微調獲得優異性能

模型能力

詞彙關係分類
類比問題解答
關係映射
關係相似性計算

使用案例

教育
類比問題解答
用於解答類似SAT考試的類比問題
在SAT完整版上準確率達到60.96%
自然語言處理
詞彙關係分類
對詞彙之間的語義關係進行分類
在BLESS數據集上F1分數達到92.65%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase