B

Bert Base Parsbert Uncased

Developed by HooshvareLab
Transformerアーキテクチャに基づくペルシア語理解モデルで、マルチ言語BERTや他の混合モデルを上回る性能を持つ
Downloads 99.81k
Release Time : 3/2/2022

Model Overview

ParsBERTはBERTアーキテクチャに基づく単一言語のペルシア語事前学習モデルで、感情分析、テキスト分類、固有表現認識などの下流タスクで優れた性能を発揮する

Model Features

ペルシア語最適化
ペルシア語の特性に合わせて特別に最適化されており、品詞タグ付けとWordPieceトークナイズ前処理を含む
全単語マスキング訓練
全単語マスキング(Whole Word Masking)技術を採用してモデルの理解能力を向上させる
大規模コーパス
200万以上の文書、4000万以上の文のペルシア語コーパスに基づいて訓練される

Model Capabilities

ペルシア語テキスト理解
感情分析
テキスト分類
固有表現認識

Use Cases

感情分析
ユーザーレビューの感情分析
DigikalaやSnappFoodなどのプラットフォームのユーザーレビューの感情傾向を分析する
DigikalaデータセットでF1が81.74に達し、mBERTを上回る
テキスト分類
ニュース分類
ペルシア語ニュースを自動分類する
ペルシア語ニュースデータセットでF1が97.19に達する
固有表現認識
ペルシア語の固有表現認識
ペルシア語テキスト中の人名、地名などの固有表現を認識する
PEYMAデータセットでF1が93.10に達する
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase