R

Roberta Large Conceptnet Mask Prompt E Nce

由research-backup開發
基於RoBERTa-large微調的關係嵌入模型,專注於詞彙關係理解和類比推理任務
下載量 17
發布時間 : 8/7/2022

模型概述

該模型通過在高置信度ConceptNet數據上微調RoBERTa-large,專門用於理解詞彙間的關係和進行類比推理。支持多種關係分類和映射任務。

模型特點

高精度關係分類
在多個關係分類數據集上取得0.9以上的F1分數
多任務支持
同時支持關係分類、類比推理和關係映射等多種任務
基於提示的微調
使用特殊的mask提示模板進行訓練,增強關係理解能力

模型能力

詞彙關係分類
類比推理
關係嵌入生成
關係映射

使用案例

自然語言處理
詞彙關係分類
識別詞彙之間的語義關係(如同義、反義、上下位等)
在BLESS數據集上達到93%的F1分數
類比推理
解決類似'東京之於日本相當於巴黎之於?'的類比問題
在Google類比數據集上達到89.8%準確率
知識圖譜
關係映射
將不同知識庫中的關係進行對齊和映射
關係映射準確率達到93.25%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase