🚀 relbert/roberta-large-conceptnet-mask-prompt-e-nce
RelBERT 是在 roberta-large 基础上微调得到的模型,微调数据集为 relbert/conceptnet_high_confidence。微调过程借助 RelBERT 库完成(更多详情请查看该仓库)。该模型在关系理解任务中取得了以下成果:
🚀 快速开始
本模型可通过 relbert 库 使用。首先,使用以下命令安装该库:
pip install relbert
然后,按如下方式激活模型:
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-conceptnet-mask-prompt-e-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
✨ 主要特性
该模型在多种关系理解任务中表现出色,具体如下:
任务类型 |
数据集 |
指标 |
数值 |
类比问题 |
SAT(完整) |
准确率 |
0.5561497326203209 |
类比问题 |
SAT |
准确率 |
0.5578635014836796 |
类比问题 |
BATS |
准确率 |
0.7593107281823235 |
类比问题 |
U2 |
准确率 |
0.5657894736842105 |
类比问题 |
U4 |
准确率 |
0.5902777777777778 |
类比问题 |
Google |
准确率 |
0.898 |
词汇关系分类 |
BLESS |
微观 F1 分数 |
0.9303902365526593 |
词汇关系分类 |
CogALexV |
微观 F1 分数 |
0.8781690140845071 |
词汇关系分类 |
EVALution |
微观 F1 分数 |
0.6939328277356447 |
词汇关系分类 |
K&H+N |
微观 F1 分数 |
0.9631355637476525 |
词汇关系分类 |
ROOT09 |
微观 F1 分数 |
0.9088060169225948 |
关系映射 |
关系映射 |
准确率 |
0.9325396825396826 |
📦 安装指南
通过 pip 安装 relbert 库:
pip install relbert
💻 使用示例
基础用法
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-conceptnet-mask-prompt-e-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
📚 详细文档
训练超参数
训练过程中使用了以下超参数:
属性 |
详情 |
模型 |
roberta-large |
最大长度 |
64 |
模式 |
mask |
数据 |
relbert/conceptnet_high_confidence |
模板模式 |
manual |
模板 |
I wasn’t aware of this relationship, but I just read in the encyclopedia that is ’s |
损失函数 |
nce_logout |
温度 NCE 常数 |
0.05 |
温度 NCE 排名 |
{'min': 0.01, 'max': 0.05, 'type': 'linear'} |
轮数 |
146 |
批次大小 |
128 |
学习率 |
5e-06 |
学习率衰减 |
False |
学习率预热 |
1 |
权重衰减 |
0 |
随机种子 |
0 |
排除关系 |
None |
样本数量 |
640 |
梯度累积 |
8 |
完整配置可在 微调参数文件 中查看。
参考引用
如果您使用了 RelBERT 的任何资源,请考虑引用我们的 论文。
@inproceedings{ushio-etal-2021-distilling-relation-embeddings,
title = "{D}istilling {R}elation {E}mbeddings from {P}re-trained {L}anguage {M}odels",
author = "Ushio, Asahi and
Schockaert, Steven and
Camacho-Collados, Jose",
booktitle = "EMNLP 2021",
year = "2021",
address = "Online",
publisher = "Association for Computational Linguistics",
}