Roberta Large Conceptnet Mask Prompt E Nce
RoBERTa-largeをファインチューニングした関係埋め込みモデルで、語彙関係の理解と類推推論タスクに特化
ダウンロード数 17
リリース時間 : 8/7/2022
モデル概要
このモデルは高信頼度のConceptNetデータでRoBERTa-largeをファインチューニングし、語彙間の関係理解と類推推論に特化しています。複数の関係分類とマッピングタスクをサポートします。
モデル特徴
高精度関係分類
複数の関係分類データセットで0.9以上のF1スコアを達成
マルチタスクサポート
関係分類、類推推論、関係マッピングなど複数タスクを同時にサポート
プロンプトベースのファインチューニング
特殊なマスクプロンプトテンプレートを使用して訓練し、関係理解能力を強化
モデル能力
語彙関係分類
類推推論
関係埋め込み生成
関係マッピング
使用事例
自然言語処理
語彙関係分類
語彙間の意味的関係(同義語、反意語、上位語など)を識別
BLESSデータセットで93%のF1スコアを達成
類推推論
'東京は日本に対して、パリは?'のような類推問題を解決
Google類推データセットで89.8%の精度を達成
知識グラフ
関係マッピング
異なる知識ベース間の関係を整合・マッピング
関係マッピング精度93.25%を達成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98