A

Afro Xlmr Mini

Davlanによって開発
AfroXLMR-miniは、XLM-R-miniLMモデルを17のアフリカ言語でマスク言語モデル(MLM)適応訓練することで作成され、アフリカの主要語族と3つの高リソース言語(アラビア語、フランス語、英語)をカバーしています。
ダウンロード数 66
リリース時間 : 4/13/2022

モデル概要

このモデルはアフリカ言語に最適化された多言語事前訓練言語モデルで、多言語適応微調整によりアフリカ言語での性能を向上させています。

モデル特徴

アフリカ言語最適化
17のアフリカ言語に特化して最適化訓練され、アフリカ言語タスクでの性能を向上
多言語適応
多言語適応微調整(MAFT)手法により、単言語適応とクロスランゲージ転移能力のバランスを実現
効率的なアーキテクチャ
XLM-R-miniLMベースの軽量アーキテクチャで、性能を維持しながらモデルサイズを削減

モデル能力

多言語テキスト理解
固有表現認識
ニューストピック分類
感情分析

使用事例

自然言語処理
アフリカ言語固有表現認識
MasakhaNERデータセットでのアフリカ言語エンティティ認識
ハウサ語で87.7 F1値、ナイジェリアピジン語で85.5 F1値を達成
クロスランゲージ転移学習
下流のアフリカ言語NLPタスクをサポートするベースモデルとして
ゼロショットクロスランゲージ転移をサポート
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase