X

XLMR MaltBERTa

MaCoCuによって開発
マルタ語テキストの大規模事前学習に基づく言語モデルで、XLM-RoBERTa-largeをベースにさらに訓練された
ダウンロード数 20
リリース時間 : 8/11/2022

モデル概要

XLMR-MaltBERTaはマルタ語に特化して最適化された言語モデルで、様々な自然言語処理タスクに適しています。

モデル特徴

マルタ語最適化
マルタ語に特化した大規模事前学習を行い、優れた言語理解能力を提供
XLM-RoBERTa-largeベース
強力なXLM-RoBERTa-largeモデルをベースにさらに訓練され、その優れた特性を継承
大規模トレーニングデータ
3.2GBのマルタ語テキスト(4.39億トークン)を使用して訓練

モデル能力

テキスト理解
品詞タグ付け
言語推論

使用事例

自然言語処理
品詞タグ付け
Universal DependenciesプロジェクトのUPOS/XPOSベンチマークで品詞タグ付け
テストセットで98.1(UPOS)と98.2(XPOS)の高い精度を達成
言語推論
Google翻訳版COPAデータセットで言語推論
テストセット精度54.4を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase