M

Multilingual Albert Base Cased 64k

cservanによって開発
マスク言語モデリング(MLM)目標で事前学習された多言語ALBERTモデル、64k語彙サイズをサポート、大文字小文字を区別
ダウンロード数 52
リリース時間 : 12/20/2023

モデル概要

mALBERTは多言語ウィキペディアテキストで自己教師あり方式で事前学習されたtransformersモデルで、重み共有のTransformer層構造を採用し、下流タスクの微調整に適しています。

モデル特徴

多言語サポート
50以上の言語処理をサポート、主要な欧州・アジア言語を含む
重み共有アーキテクチャ
ALBERT特有の重み共有Transformer層を採用、メモリ使用量を削減
大文字小文字区別
単語の大文字小文字の違いを効果的に識別(例:'french'と'French')
効率的な事前学習
マスク言語モデリングと文順序予測の二重目標で事前学習

モデル能力

多言語テキスト理解
文順序予測
下流タスクの特徴抽出
マスクトークン予測

使用事例

自然言語処理
スロットフィリングタスク
MMNLU、MultiATIS++などのデータセットでの情報抽出応用
MultiATIS++で88.88%の精度を達成
テキスト分類
多言語テキスト分類タスク処理
MMNLU分類タスクで71.26%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase