A

ARBERT

UBC-NLPによって開発
ARBERTは現代標準アラビア語(MSA)向けの大規模事前学習マスク言語モデルで、BERT-baseアーキテクチャに基づき、61GBのアラビア語テキストで学習されています。
ダウンロード数 1,082
リリース時間 : 3/2/2022

モデル概要

ARBERTは深層双方向Transformerモデルで、現代標準アラビア語向けに設計され、アラビア語テキストのマスク言語モデリングタスクを処理します。

モデル特徴

大規模アラビア語事前学習
61GBのアラビア語テキスト(62億トークン)を使用して学習され、現代標準アラビア語に最適化されています
BERT-base互換アーキテクチャ
標準BERT-baseアーキテクチャ(12層/12ヘッド/768次元)を採用し、転移学習と微調整が容易です
専門語彙表
10万トークンのアラビア語専用語彙表を含みます

モデル能力

アラビア語テキスト理解
マスク言語モデリング
テキスト分類
固有表現認識

使用事例

ソーシャルメディア分析
アラビア語ツイート感情分析
アラビア語ソーシャルメディアコンテンツの感情傾向を判断
ARLUEベンチマークで優れた性能を発揮
教育テクノロジー
アラビア語文法チェック
現代標準アラビア語テキストの文法誤りを自動検出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase