R

Roberta Large Conceptnet Mask Prompt E Nce

research-backupによって開発
RoBERTa-largeをファインチューニングした関係埋め込みモデルで、語彙関係の理解と類推推論タスクに特化
ダウンロード数 17
リリース時間 : 8/7/2022

モデル概要

このモデルは高信頼度のConceptNetデータでRoBERTa-largeをファインチューニングし、語彙間の関係理解と類推推論に特化しています。複数の関係分類とマッピングタスクをサポートします。

モデル特徴

高精度関係分類
複数の関係分類データセットで0.9以上のF1スコアを達成
マルチタスクサポート
関係分類、類推推論、関係マッピングなど複数タスクを同時にサポート
プロンプトベースのファインチューニング
特殊なマスクプロンプトテンプレートを使用して訓練し、関係理解能力を強化

モデル能力

語彙関係分類
類推推論
関係埋め込み生成
関係マッピング

使用事例

自然言語処理
語彙関係分類
語彙間の意味的関係(同義語、反意語、上位語など)を識別
BLESSデータセットで93%のF1スコアを達成
類推推論
'東京は日本に対して、パリは?'のような類推問題を解決
Google類推データセットで89.8%の精度を達成
知識グラフ
関係マッピング
異なる知識ベース間の関係を整合・マッピング
関係マッピング精度93.25%を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase