B

Bert Medium Amharic

rasyosefによって開発
bert-mediumアーキテクチャに基づいて事前学習されたアムハラ語モデルで、パラメータ数は4050万で、29億トークンで学習され、より大規模な多言語モデルと匹敵する性能を持ちます。
ダウンロード数 2,661
リリース時間 : 6/16/2024

モデル概要

アムハラ語用に特別設計されたBERTモデルで、マスク埋め込みタスクをサポートし、テキスト理解と生成タスクに使用できます。

モデル特徴

効率的なパラメータ利用
わずか4050万のパラメータで、2.79億のパラメータを持つモデルと同等のアムハラ語処理能力を達成します。
専用トークナイザー
28kの語彙量に基づくアムハラ語専用のトークナイザー
複数のデータセットでの学習
oscar、mc4、アムハラ語文コーパスを統合して学習します。

モデル能力

アムハラ語テキスト理解
マスク埋め込み予測
下流タスクの微調整

使用事例

自然言語処理
感情分析
アムハラ語テキストの感情傾向を分類します。
F1スコア0.83
固有表現認識
アムハラ語テキスト内の人名、地名などのエンティティを識別します。
F1スコア0.68
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase