A

ARBERT

Developed by UBC-NLP
ARBERTは現代標準アラビア語(MSA)向けの大規模事前学習マスク言語モデルで、BERT-baseアーキテクチャに基づき、61GBのアラビア語テキストで学習されています。
Downloads 1,082
Release Time : 3/2/2022

Model Overview

ARBERTは深層双方向Transformerモデルで、現代標準アラビア語向けに設計され、アラビア語テキストのマスク言語モデリングタスクを処理します。

Model Features

大規模アラビア語事前学習
61GBのアラビア語テキスト(62億トークン)を使用して学習され、現代標準アラビア語に最適化されています
BERT-base互換アーキテクチャ
標準BERT-baseアーキテクチャ(12層/12ヘッド/768次元)を採用し、転移学習と微調整が容易です
専門語彙表
10万トークンのアラビア語専用語彙表を含みます

Model Capabilities

アラビア語テキスト理解
マスク言語モデリング
テキスト分類
固有表現認識

Use Cases

ソーシャルメディア分析
アラビア語ツイート感情分析
アラビア語ソーシャルメディアコンテンツの感情傾向を判断
ARLUEベンチマークで優れた性能を発揮
教育テクノロジー
アラビア語文法チェック
現代標準アラビア語テキストの文法誤りを自動検出
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase