T

Tookabert Base

PartAIによって開発
TookaBERTはペルシャ語で訓練されたエンコーダーモデルファミリーで、基礎版と大規模版の2つのバージョンがあり、様々な自然言語処理タスクに適しています。
ダウンロード数 127
リリース時間 : 4/29/2024

モデル概要

TookaBERTモデルはペルシャ語で訓練されたエンコーダーモデルファミリーで、マスク埋め込みタスクに適しており、感情分析、テキスト分類、多肢選択、質問応答、固有表現認識などの様々な下流タスクをサポートします。

モデル特徴

多トピック事前学習
500GB以上のペルシャ語データで事前学習を行い、ニュース、ブログ、フォーラム、書籍など様々なトピックをカバーしています。
遮蔽言語モデリング
遮蔽言語モデリング(WWM)目標を用いて事前学習を行い、マスク埋め込みタスクをサポートします。
マルチタスクサポート
感情分析、テキスト分類、多肢選択、質問応答、固有表現認識などの様々な下流タスクをサポートします。

モデル能力

マスク埋め込み
感情分析
テキスト分類
多肢選択
質問応答
固有表現認識

使用事例

感情分析
DeepSentiPers
ペルシャ語の感情分析タスクに使用
f1/acc: 85.66/85.78 (TookaBERT-large)
固有表現認識
MultiCoNER-v2
ペルシャ語の固有表現認識タスクに使用
f1/acc: 69.69/94.07 (TookaBERT-large)
質問応答
PQuAD
ペルシャ語の質問応答タスクに使用
best_exact/best_f1/HasAns_exact/HasAns_f1: 75.56/88.06/70.24/87.83 (TookaBERT-large)
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase