Srl En Mbert Base
このモデルは、英語のCoNLL形式のOntoNotes v5.0意味役割付与データでファインチューニングされたbert-base-multilingual-casedモデルで、主に意味役割付与タスクに使用されます。
ダウンロード数 93
リリース時間 : 3/2/2022
モデル概要
これは、英語の意味役割付与(SRL)タスク専用にファインチューニングされた多言語BERTモデルです。文中の述語とその関連する項を識別し、自然言語理解に構造化された情報を提供します。
モデル特徴
多言語ベース
bert-base-multilingual-casedモデルをベースにファインチューニングされており、多言語理解能力を有する
英語SRL専用
英語の意味役割付与タスクに特化して最適化されている
研究プロジェクト成果
研究プロジェクトの一環として開発され、他の複数のSRLモデルと共に公開されている
モデル能力
意味役割付与
自然言語理解
述語-項構造認識
使用事例
自然言語処理
意味役割分析
文中の述語とその項の関係を分析する
F1値63.07(PropBank.Br)
分野横断的意味分析
異なる分野のテキストで意味役割付与を行う
F1値58.56(Buscapéデータセット)
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98