B

Bert Base Parsbert Uncased

HooshvareLabによって開発
Transformerアーキテクチャに基づくペルシア語理解モデルで、マルチ言語BERTや他の混合モデルを上回る性能を持つ
ダウンロード数 99.81k
リリース時間 : 3/2/2022

モデル概要

ParsBERTはBERTアーキテクチャに基づく単一言語のペルシア語事前学習モデルで、感情分析、テキスト分類、固有表現認識などの下流タスクで優れた性能を発揮する

モデル特徴

ペルシア語最適化
ペルシア語の特性に合わせて特別に最適化されており、品詞タグ付けとWordPieceトークナイズ前処理を含む
全単語マスキング訓練
全単語マスキング(Whole Word Masking)技術を採用してモデルの理解能力を向上させる
大規模コーパス
200万以上の文書、4000万以上の文のペルシア語コーパスに基づいて訓練される

モデル能力

ペルシア語テキスト理解
感情分析
テキスト分類
固有表現認識

使用事例

感情分析
ユーザーレビューの感情分析
DigikalaやSnappFoodなどのプラットフォームのユーザーレビューの感情傾向を分析する
DigikalaデータセットでF1が81.74に達し、mBERTを上回る
テキスト分類
ニュース分類
ペルシア語ニュースを自動分類する
ペルシア語ニュースデータセットでF1が97.19に達する
固有表現認識
ペルシア語の固有表現認識
ペルシア語テキスト中の人名、地名などの固有表現を認識する
PEYMAデータセットでF1が93.10に達する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase