Bert Fa Zwnj Base Ner
B
Bert Fa Zwnj Base Ner
HooshvareLabによって開発
ペルシア語の固有表現抽出(NER)タスクに対して微調整されたBERTモデルで、10種類の固有表現の抽出をサポートします。
ダウンロード数 6,189
リリース時間 : 3/2/2022
モデル概要
このモデルはBERTアーキテクチャに基づいており、ペルシア語の固有表現抽出タスクに対して微調整されており、日付、イベント、施設、場所、金額、組織、パーセンテージ、人物、製品、時間などの十種類の固有表現を抽出することができます。
モデル特徴
多ソースデータセットによる訓練
ARMAN、PEYMA、WikiANNの3つのペルシア語NERデータセットを統合して訓練を行いました。
十種類の固有表現の抽出
日付、イベント、施設、場所、金額、組織、パーセンテージ、人物、製品、時間などの十種類の固有表現の抽出をサポートします。
高精度の性能
テストセットでの全体のF1値が0.957に達し、ほとんどの固有表現のカテゴリのF1値が0.95を超えています。
モデル能力
ペルシア語テキストの処理
固有表現抽出
固有表現の分類
使用事例
テキスト分析
ニュースからの固有表現の抽出
ペルシア語のニュースから人物、組織、場所などの重要な固有表現を抽出します。
ニュース内の重要な情報を正確に識別します。
金融文書の分析
ペルシア語の金融文書内の金額、パーセンテージなどの固有表現を分析します。
金融データの抽出と分析を支援します。
情報検索
知識グラフの構築
ペルシア語のテキストから固有表現を抽出して知識グラフの構築に利用します。
知識グラフの構築効率を向上させます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98