Arabic Ner
事前学習されたBERTモデルに基づくアラビア語命名エンティティ認識モデルで、8種類のエンティティタイプを認識できます。
ダウンロード数 45.56k
リリース時間 : 3/2/2022
モデル概要
このモデルはarabic-bert-base事前学習モデルに基づいており、アラビア語の命名エンティティ認識タスクに特化しており、人物、組織、場所などの様々なエンティティタイプを認識できます。
モデル特徴
多クラスエンティティ認識
人物、組織、場所など8種類の異なるタイプの命名エンティティを認識できます。
高い正確性
検証セットでF1値が87%に達し、優れた性能を示します。
大規模な学習データ
37.8万個のトークン(1.4万文)の手動アノテーション付きデータを使用して学習されています。
モデル能力
アラビア語テキスト処理
命名エンティティ認識
多クラスエンティティ分類
使用事例
ニュース分析
ニュース人物認識
アラビア語ニュースから重要な人物の名前を認識する
「ナビフ・ベリ」などの政治家を正確に認識する
組織抽出
ニュースで言及されている組織を認識する
「世界銀行」「欧州連合」などの機関を成功裏に認識する
地理情報抽出
場所認識
テキストから地理的な位置情報を抽出する
「アテネ」「サキズ島」などの地名を正確に認識する
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98