X

Xlm Mlm Tlm Xnli15 1024

FacebookAIによって開発
XLMは、マスク言語モデリングと翻訳言語モデリングの目的で事前学習された異言語Transformerモデルで、15言語のテキスト分類タスクをサポートします。
ダウンロード数 198
リリース時間 : 3/2/2022

モデル概要

このモデルはTransformerアーキテクチャに基づいており、多言語事前学習と英語NLIデータセットの微調整により、15言語の異言語テキスト分類タスクを処理できます。

モデル特徴

異言語能力
多言語事前学習と翻訳言語モデリングの目的により、モデルは15言語のテキスト分類タスクを処理できます。
効率的な事前学習
マスク言語モデリング(MLM)と翻訳言語モデリング(TLM)の目的を使用して事前学習を行い、異言語表現を最適化します。
多言語評価
15言語のXNLIデータセットで全面的に評価され、良好な異言語移行能力を示しています。

モデル能力

異言語テキスト分類
自然言語推論
多言語テキスト理解

使用事例

自然言語処理
異言語テキスト分類
15言語のテキストに対して分類タスクを行う
XNLIデータセットで67.3 - 85.0%の正解率を達成
多言語コンテンツ分析
異なる言語のテキストコンテンツを分析し、重要な情報を抽出する
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase