X

Xlm Mlm Xnli15 1024

FacebookAIによって開発
XLMモデルは、マスク言語モデリングの目標で事前学習されたTransformerモデルで、15言語の異言語テキスト分類タスクをサポートします。
ダウンロード数 143
リリース時間 : 3/2/2022

モデル概要

このモデルはTransformerアーキテクチャに基づく多言語モデルで、マスク言語モデリングの目標で事前学習され、英語のNLIデータセットで微調整され、15言語のテキスト分類タスクを処理できます。

モデル特徴

多言語サポート
英語、フランス語、中国語など15言語のテキスト分類タスクをサポートします。
異言語転移学習
英語のNLIデータセットで微調整した後、他の14言語で良好な性能を発揮します。
効率的なトレーニング
float16演算を使用してトレーニングを高速化し、メモリ使用量を削減し、トレーニング効率を最適化します。

モデル能力

異言語テキスト分類
自然言語推論
多言語テキスト処理

使用事例

自然言語処理
異言語テキスト分類
15種類の異なる言語のテキストに対して分類タスクを行います。
XNLIデータセットで良好な性能を発揮し、正解率は63.4%から83.2%まで様々です。
自然言語推論
2つの文の間の論理関係(含意、矛盾、または中立)を判断します。
英語のNLIタスクで83.2%の正解率を達成します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase