Roberta Fa Zwnj Base Ner
R
Roberta Fa Zwnj Base Ner
HooshvareLabによって開発
このモデルは、ペルシャ語の固有表現抽出(NER)タスクに対して微調整されたRoBERTaモデルで、10種類のエンティティタイプの識別をサポートしています。
ダウンロード数 102
リリース時間 : 3/2/2022
モデル概要
RoBERTaアーキテクチャに基づくペルシャ語の固有表現抽出モデルで、混合NERデータセットで訓練され、日付、イベント、施設、場所など10種類のエンティティを識別することができます。
モデル特徴
複数タイプのエンティティ識別
日付、イベント、施設など、10種類の異なるタイプの固有表現の識別をサポートしています。
混合データセットによる訓練
ARMAN、PEYMA、WikiANNなどの複数のペルシャ語NERデータセットを使用して訓練されています。
高い正解率
テストセットでの全体のF1値は0.955に達し、ほとんどのエンティティタイプのF1値は0.95を超えています。
モデル能力
ペルシャ語テキスト処理
固有表現抽出
エンティティ分類
使用事例
情報抽出
ニュースのエンティティ抽出
ペルシャ語のニューステキストから人名、組織名、場所などの重要な情報を抽出します。
2646人の人名エンティティを正確に識別し、F1値は0.958に達しました
金融文書の分析
金融文書内の通貨、パーセンテージなどの重要な数値情報を識別します。
通貨識別のF1値は0.928、パーセンテージ識別のF1値は0.984です
知識グラフ構築
エンティティ関係の抽出
知識グラフ構築の前段階として、テキスト内の各種エンティティを識別します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98