R

Roberta Large Semeval2012 V2 Mask Prompt A Nce

research-backupによって開発
RelBERTはRoBERTa-largeをファインチューニングした意味関係理解モデルで、語彙関係分類や類推問題タスクに特化しています。
ダウンロード数 16
リリース時間 : 8/17/2022

モデル概要

このモデルはRoBERTa-largeアーキテクチャをファインチューニングし、語彙間の意味関係の理解に焦点を当て、様々な関係分類や類推タスクで優れた性能を発揮します。

モデル特徴

高性能関係理解
BLESSデータセットでF1値0.926を達成するなど、様々な意味関係タスクで高精度を実現
マルチタスク適応
関係分類、類推問題、関係マッピングなど複数のタスクを同時に処理可能
プロンプトベースのファインチューニング
特定のテンプレートを使用したマスクプロンプトによるファインチューニングで、関係表現能力を強化

モデル能力

語彙関係分類
類推問題解答
意味関係マッピング
関係埋め込み生成

使用事例

教育技術
SAT類推問題解答
標準化試験における語彙類推問題の解答に利用
SAT正解率71.8%
知識グラフ
語彙関係分類
知識グラフ構築時のエンティティ関係分類
K&H+NデータセットでF1値0.959を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase