R

Roberta Large Conceptnet Mask Prompt E Nce

Developed by research-backup
RoBERTa-largeをファインチューニングした関係埋め込みモデルで、語彙関係の理解と類推推論タスクに特化
Downloads 17
Release Time : 8/7/2022

Model Overview

このモデルは高信頼度のConceptNetデータでRoBERTa-largeをファインチューニングし、語彙間の関係理解と類推推論に特化しています。複数の関係分類とマッピングタスクをサポートします。

Model Features

高精度関係分類
複数の関係分類データセットで0.9以上のF1スコアを達成
マルチタスクサポート
関係分類、類推推論、関係マッピングなど複数タスクを同時にサポート
プロンプトベースのファインチューニング
特殊なマスクプロンプトテンプレートを使用して訓練し、関係理解能力を強化

Model Capabilities

語彙関係分類
類推推論
関係埋め込み生成
関係マッピング

Use Cases

自然言語処理
語彙関係分類
語彙間の意味的関係(同義語、反意語、上位語など)を識別
BLESSデータセットで93%のF1スコアを達成
類推推論
'東京は日本に対して、パリは?'のような類推問題を解決
Google類推データセットで89.8%の精度を達成
知識グラフ
関係マッピング
異なる知識ベース間の関係を整合・マッピング
関係マッピング精度93.25%を達成
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase