M

Maltberta

MaCoCuによって開発
MaltBERTaはマルタ語テキストの大規模事前学習に基づく言語モデルで、RoBERTaアーキテクチャを採用し、MaCoCuプロジェクトによって開発されました。
ダウンロード数 26
リリース時間 : 8/11/2022

モデル概要

このモデルはマルタ語に特化して最適化された言語モデルで、様々な自然言語処理タスクに適しています。

モデル特徴

大規模マルタ語事前学習
3.2GBのマルタ語テキスト(4.39億トークン)を使用して訓練
複数ソースデータ統合
MaCoCu、Oscar、mc4コーパスの内容を統合し、重複除去処理を実施
高性能
UPOS/XPOSおよびCOPAベンチマークでXLM-R-base/largeを上回る性能

モデル能力

テキスト理解
品詞タグ付け
言語推論

使用事例

自然言語処理
品詞タグ付け
マルタ語テキストの品詞タグ付けタスクに使用
UPOS/XPOSテストセットで95.8/96.0の精度を達成
言語推論
マルタ語の言語推論タスクに使用
COPAテストセットで53.7の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase