🚀 relbert/roberta-large-semeval2012-v2-mask-prompt-a-nce
RelBERTは、roberta-large を relbert/semeval2012_relational_similarity_v2 でファインチューニングしたモデルです。ファインチューニングは RelBERT ライブラリを使用して行われています(詳細はリポジトリを参照)。このモデルは、関係理解タスクで以下の結果を達成しています。
🚀 クイックスタート
このモデルは、relbertライブラリ を通じて使用することができます。まず、以下のコマンドでライブラリをインストールします。
pip install relbert
次に、以下のコードでモデルをアクティブにします。
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-semeval2012-v2-mask-prompt-a-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
✨ 主な機能
このモデルは、関係理解タスクにおいて優れた性能を発揮します。具体的には、以下のタスクで良好な結果を得ています。
- 類推問題(データセット、完全な結果)
- SAT(完全版)の正解率: 0.7165775401069518
- SATの正解率: 0.7181008902077152
- BATSの正解率: 0.7626459143968871
- U2の正解率: 0.6359649122807017
- U4の正解率: 0.6435185185185185
- Googleの正解率: 0.946
- 語彙関係分類(データセット、完全な結果)
- BLESSのマイクロF1スコア: 0.9264728039777008
- CogALexVのマイクロF1スコア: 0.8760563380281691
- EVALutionのマイクロF1スコア: 0.7085590465872156
- K&H+NのマイクロF1スコア: 0.9585448981011337
- ROOT09のマイクロF1スコア: 0.9088060169225948
- 関係マッピング(データセット、完全な結果)
- 関係マッピングの正解率: 0.8338095238095238
📦 インストール
このモデルを使用するには、relbertライブラリ をインストールする必要があります。以下のコマンドでインストールできます。
pip install relbert
💻 使用例
基本的な使用法
from relbert import RelBERT
model = RelBERT("relbert/roberta-large-semeval2012-v2-mask-prompt-a-nce")
vector = model.get_embedding(['Tokyo', 'Japan'])
📚 ドキュメント
学習ハイパーパラメータ
学習時に使用されたハイパーパラメータは以下の通りです。
パラメータ |
詳細 |
モデル |
roberta-large |
最大長 |
64 |
モード |
mask |
データ |
relbert/semeval2012_relational_similarity_v2 |
テンプレートモード |
manual |
テンプレート |
Today, I finally discovered the relation between and : is the of |
損失関数 |
nce_logout |
温度NCE定数 |
0.05 |
温度NCEランク |
{'min': 0.01, 'max': 0.05, 'type': 'linear'} |
エポック |
29 |
バッチ |
128 |
学習率 |
5e-06 |
学習率減衰 |
False |
学習率ウォームアップ |
1 |
重み減衰 |
0 |
乱数シード |
0 |
除外関係 |
None |
サンプル数 |
640 |
勾配蓄積 |
8 |
完全な設定は、ファインチューニングパラメータファイル で確認できます。
参考文献
RelBERTのリソースを使用する場合は、以下の論文を引用してください。
@inproceedings{ushio-etal-2021-distilling-relation-embeddings,
title = "{D}istilling {R}elation {E}mbeddings from {P}re-trained {L}anguage {M}odels",
author = "Ushio, Asahi and
Schockaert, Steven and
Camacho-Collados, Jose",
booktitle = "EMNLP 2021",
year = "2021",
address = "Online",
publisher = "Association for Computational Linguistics",
}