🚀 relbert/roberta-large-conceptnet-mask-prompt-e-nce
RelBERT 是在 roberta-large 基礎上微調得到的模型,微調數據集為 relbert/conceptnet_high_confidence。微調過程藉助 RelBERT 庫完成(更多詳情請查看該倉庫)。該模型在關係理解任務中取得了以下成果:
🚀 快速開始
本模型可通過 relbert 庫 使用。首先,使用以下命令安裝該庫:
pip install relbert
然後,按如下方式激活模型:
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-conceptnet-mask-prompt-e-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
✨ 主要特性
該模型在多種關係理解任務中表現出色,具體如下:
任務類型 |
數據集 |
指標 |
數值 |
類比問題 |
SAT(完整) |
準確率 |
0.5561497326203209 |
類比問題 |
SAT |
準確率 |
0.5578635014836796 |
類比問題 |
BATS |
準確率 |
0.7593107281823235 |
類比問題 |
U2 |
準確率 |
0.5657894736842105 |
類比問題 |
U4 |
準確率 |
0.5902777777777778 |
類比問題 |
Google |
準確率 |
0.898 |
詞彙關係分類 |
BLESS |
微觀 F1 分數 |
0.9303902365526593 |
詞彙關係分類 |
CogALexV |
微觀 F1 分數 |
0.8781690140845071 |
詞彙關係分類 |
EVALution |
微觀 F1 分數 |
0.6939328277356447 |
詞彙關係分類 |
K&H+N |
微觀 F1 分數 |
0.9631355637476525 |
詞彙關係分類 |
ROOT09 |
微觀 F1 分數 |
0.9088060169225948 |
關係映射 |
關係映射 |
準確率 |
0.9325396825396826 |
📦 安裝指南
通過 pip 安裝 relbert 庫:
pip install relbert
💻 使用示例
基礎用法
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-conceptnet-mask-prompt-e-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
📚 詳細文檔
訓練超參數
訓練過程中使用了以下超參數:
屬性 |
詳情 |
模型 |
roberta-large |
最大長度 |
64 |
模式 |
mask |
數據 |
relbert/conceptnet_high_confidence |
模板模式 |
manual |
模板 |
I wasn’t aware of this relationship, but I just read in the encyclopedia that is ’s |
損失函數 |
nce_logout |
溫度 NCE 常數 |
0.05 |
溫度 NCE 排名 |
{'min': 0.01, 'max': 0.05, 'type': 'linear'} |
輪數 |
146 |
批次大小 |
128 |
學習率 |
5e-06 |
學習率衰減 |
False |
學習率預熱 |
1 |
權重衰減 |
0 |
隨機種子 |
0 |
排除關係 |
None |
樣本數量 |
640 |
梯度累積 |
8 |
完整配置可在 微調參數文件 中查看。
參考引用
如果您使用了 RelBERT 的任何資源,請考慮引用我們的 論文。
@inproceedings{ushio-etal-2021-distilling-relation-embeddings,
title = "{D}istilling {R}elation {E}mbeddings from {P}re-trained {L}anguage {M}odels",
author = "Ushio, Asahi and
Schockaert, Steven and
Camacho-Collados, Jose",
booktitle = "EMNLP 2021",
year = "2021",
address = "Online",
publisher = "Association for Computational Linguistics",
}